Administrativní informace
Název | Důvěryhodné strojové učení |
Trvání | 60 min |
Modul | B |
Typ lekce | Přednáška |
Soustředění | Etika – důvěryhodná umělá inteligence |
Téma | Problémy s důvěrností, integritou a dostupností ve strojovém učení |
Klíčová slova
Důvěrnost, Integrita, Dostupnost, Otrávení, Evaze, Protichůdné příklady, Příklady houbičky, Zadní vrátka, Vysvětlitelnost úniku,Robustness, Trade-off,
Vzdělávací cíle
- Získejte obecný přehled o hlavních bezpečnostních problémech strojového učení
- Pochopení hlavních otázek důvěrnosti, integrity a dostupnosti strojového učení
- Rozlišování úniků, otrav a útoků zadních vrátek
- Pochopení čistoty otrávených útoků
- Získejte intuici kontradiktorních příkladů a jejich praktický dopad prostřednictvím příkladů z reálného života
- Demonstrace dostupnosti útoků pomocí uměle postavených houbových příkladů
- Pochopení hrozby vysvětlovatelnosti úniku
- Pochopení kompromisu mezi robustností a kvalitou modelu
- Naučte se principy auditu AI (robustness)
Očekávaná příprava
Vzdělávací akce, které mají být dokončeny před
Povinné pro studenty
- Základy strojového učení
Volitelné pro studenty
Žádné.
Reference a zázemí pro studenty
- Webinář HCAIM o evropském přístupu k spolehlivé, bezpečné a důvěryhodné umělé inteligenci (dostupný na YouTube)
- Kontradiktorní příklady a Adversarial Training
- Kontradiktornost – teorie a praxe
- Otrava útoky proti podpůrné vektorové stroje
- Praktické Black-Box útoky proti strojovému učení
- K hodnocení robustnosti neuronových sítí
- Certifikovaná Adversarial Robustness pomocí náhodného vyhlazování
- Houba Příklady: Energetické útoky na neuronové sítě
- Vysvětlení lze manipulovat a geometrie je na vině
- Jed žáby! Cílené otrávené útoky na neuronové sítě
- Komplexní analýza soukromí hlubokého učení
- Ochrana osobních údajů a důvěryhodné strojové učení
Doporučeno pro učitele
Materiály pro výuku
Pokyny pro učitele
Tento kurz poskytuje přehled o bezpečnosti systémů strojového učení. Zaměřuje se na útoky, které jsou užitečné pro audit robustnosti modelů strojového učení. Učitelům se doporučuje, aby použili příklady z reálného života k prokázání praktického významu těchto zranitelností, zejména pokud jde o otázky týkající se soukromí, jejichž praktický význam je často diskutován a považován za překážku lidského rozvoje. Studenti musí pochopit, že rizika ochrany soukromí mohou také zpomalit pokrok (strany, které čelí riziku důvěrnosti, se mohou zdráhat sdílet svá data). Studenti mohou získat pochopení různých bezpečnostních a osobních rizik ML modelů a mohou dále rozvíjet více praktických dovedností k auditu modelů ML v souvisejících praktických vzdělávacích akcích, které jsou:
- Praktické: Zvýšení bezpečnosti a robustnosti ML
- Praktické: Aplikujte rámce pro audit
- Praktické: Uplatňování a hodnocení technik ochrany soukromí
- Praktické: Auditní rámce pro ochranu soukromí a údajů
Obrys
Doba trvání (min) | Popis | Koncepty |
---|---|---|
5 | Triáda CIA | CIA (důvěrnost, intergrita, dostupnost) ve strojovém učení |
15 | Důvěrnost | Útok na členství, vytěžování tréninkových dat. Model kradou. |
20 | Integrita | Úniky, otravy (cílené, necílené), vyhýbání se vysvětlitelnosti, zadní vrátka. |
15 | Dostupnost | Generování houbových příkladů. |
5 | Závěry |
Potvrzení
Program Human-Centered AI Masters byl spolufinancován Nástrojem Evropské unie pro propojení Evropy v rámci grantu CEF-TC-2020–1 Digitální dovednosti 2020-EU-IA-0068.