Informacje administracyjne
Tytuł | Godne zaufania uczenie maszynowe |
Czas trwania | 60 min |
Moduł | B |
Rodzaj lekcji | Wykład |
Skupienie | Etyczne – godne zaufania AI |
Temat | Poufność, integralność i problemy z dostępnością w uczeniu maszynowym |
Słowa kluczowe
Poufność, integralność, dostępność, zatrucie, wygaśnięcie, przykłady kontradyktoryjne, przykłady splotu, backdoory, unikanie wyjaśnialności, korupcja, handel,
Cele w zakresie uczenia się
- Uzyskaj ogólny przegląd głównych problemów bezpieczeństwa związanych z uczeniem maszynowym
- Zrozumienie głównych problemów związanych z poufnością, integralnością i dostępnością uczenia maszynowego
- Rozróżnianie uchylania się od opodatkowania, zatrucia i ataków backdoors
- Zrozumienie ataków zatrucia czystym oznakowaniem
- Uzyskaj intuicję przykładów przeciwstawnych i ich praktyczny wpływ poprzez przykłady z życia rzeczywistego
- Pokazanie ataków dostępności za pomocą sztucznie skonstruowanych przykładów gąbek
- Zrozumienie zagrożenia uchylaniem się od wyjaśnialności
- Zrozumienie kompromisu między solidnością a jakością modelu
- Poznaj zasady audytu AI (robustness)
Oczekiwane przygotowanie
Wydarzenia edukacyjne, które należy ukończyć przed
Obowiązkowe dla studentów
- Podstawy uczenia maszynowego
Opcjonalne dla studentów
Brak.
Referencje i tło dla studentów
- Webinarium HCAIM na temat europejskiego podejścia do niezawodnej, bezpiecznej i godnej zaufania sztucznej inteligencji (dostępne na YouTube)
- Przykłady kontradyktoryjne i szkolenia kontradyktoryjne
- Solidność kontradyktoryjna – teoria i praktyka
- Ataki zatrucia przeciw maszynom wektorowym
- Praktyczne ataki Black-Box przeciwko uczeniu się maszyn
- W kierunku oceny odporności sieci neuronowych
- Certyfikowana wytrzymałość adversarialna poprzez Randomized Smoothing
- Przykładygąbek: Ataki energochłonne na sieci neuronowe
- Wyjaśnienia można manipulować, a geometria jest winna
- Trujące żaby! Ukierunkowane ataki zatrucia czystego lasera na sieci neuronowe
- Kompleksowa analiza prywatności głębokiego uczenia się
- Prywatność danych i godne zaufania uczenie maszynowe
Zalecane dla nauczycieli
Materiały do lekcji
Instrukcje dla nauczycieli
Ten kurs zapewnia przegląd bezpieczeństwa systemów uczenia maszynowego. Koncentruje się na atakach, które są przydatne do audytu modeli uczenia maszynowego solidności. Nauczycielom zaleca się stosowanie przykładów rzeczywistych w celu wykazania praktycznego znaczenia tych podatności, zwłaszcza w odniesieniu do kwestii związanych z prywatnością, których praktyczne znaczenie jest często dyskutowane i uważane za przeszkodę w rozwoju człowieka. Studenci muszą zrozumieć, że zagrożenia prywatności mogą również spowolnić postęp (strony narażone na ryzyko poufności mogą niechętnie udostępniać swoje dane). Studenci mogą uzyskać zrozumienie różnych zagrożeń dla bezpieczeństwa i prywatności związanych z modelami ML i mogą dalej rozwijać bardziej praktyczne umiejętności kontrolowania modeli ML w powiązanych praktycznych wydarzeniach edukacyjnych, które są:
- Praktyczne: Zwiększenie bezpieczeństwa i solidności prania pieniędzy
- Praktyczne: Zastosowanie ram audytu
- Praktyczne: Stosowanie i ocena technik ochrony prywatności
- Praktyczne: Ramy audytu w zakresie prywatności i ochrony danych
Zarys
Czas trwania (min) | Opis | Koncepcje |
---|---|---|
5 | Triada CIA | CIA (poufność, intergracja, dostępność) w uczeniu maszynowym |
15 | Poufność | Atak członkowski, ekstrakcja danych treningowych. Model kradzieży. |
20 | Integralność | Unikanie, zatrucie (ukierunkowane, nieukierunkowane), Unikanie wyjaśnialności, Backdoors. |
15 | Dostępność | Generowanie przykładów gąbek. |
5 | Wnioski |
Potwierdzenia
Program Masters zorientowany na człowieka został współfinansowany przez instrument „Łącząc Europę” Unii Europejskiej w ramach grantu CEF-TC-2020-1 Umiejętności cyfrowe 2020-EU-IA-0068.