Administratívne informácie
Názov | Dôveryhodné strojové učenie |
Trvanie | 60 minút |
Modul | B |
Druh lekcie | Prednáška |
Zameranie | Etika – dôveryhodná umelá inteligencia |
Téma | Problémy s dôvernosťou, integritou a dostupnosťou v strojovom učení |
Kľúčové slová
Dôvernosť,Integrita, Dostupnosť, Otrávenie,Evasion,Adversarial example,Sponge example,Backdoors,Explainability únik,Robustness,Trade-off,
Vzdelávacie ciele
- Získajte všeobecný prehľad o hlavných bezpečnostných problémoch strojového učenia
- Pochopenie hlavných otázok dôvernosti, integrity a dostupnosti strojového učenia
- Rozlišovanie únikov, otravy a útokov zadných dvierok
- Pochopenie útokov na otravu s čistou značkou
- Získajte intuíciu kontradiktórnych príkladov a ich praktický vplyv prostredníctvom príkladov z reálneho života.
- Demonštrácia útokov na dostupnosť umelo postavenými príkladmi špongie
- Pochopenie hrozby úniku vysvetliteľnosti
- Pochopenie kompromisu medzi robustnosťou a kvalitou modelu
- Naučte sa zásady auditu umelej inteligencie (robustnosti)
Očakávaná príprava
Naučte sa udalosti, ktoré treba dokončiť predtým
Povinné pre študentov
- Základy strojového učenia
Voliteľné pre študentov
Žiadne.
Referencie a zázemie pre študentov
- Webinár HCAIM o európskom prístupe k spoľahlivej, bezpečnej a dôveryhodnej umelej inteligencii (dostupný na YouTube)
- Kontradiktórne príklady a protichodné školenie
- Odporná robustnosť – teória a prax
- Otravy proti podporným vektorovým strojom
- Praktické Black-Box útoky na strojové učenie
- K hodnoteniu robustnosti neurónových sietí
- Certifikovaná nepriaznivá robustnosť prostredníctvom náhodného vyhladzovania
- Špongia Príklady: Útoky energetickej latencie na neurónové siete
- Vysvetlenie môže byť manipulované a geometria je na vine
- Jedovaté žaby! Cielené otravy čistou značkou na neurónové siete
- Komplexná analýza súkromia hĺbkového učenia
- Ochrana osobných údajov a dôveryhodné strojové učenie
Odporúčané pre učiteľov
Učebné materiály
Pokyny pre učiteľov
Tento kurz poskytuje prehľad o bezpečnosti systémov strojového učenia. Zameriava sa na útoky, ktoré sú užitočné pre audit modelov strojového učenia robustnosti. Učiteľom sa odporúča, aby používali príklady z reálneho života na preukázanie praktického významu týchto zraniteľných miest, najmä pokiaľ ide o otázky týkajúce sa súkromia, o ktorých praktickom význame sa často diskutuje a považuje sa za prekážku ľudského rozvoja. Študenti musia pochopiť, že riziká ochrany súkromia môžu tiež spomaliť pokrok (strany, ktoré čelia rizikám dôvernosti, sa môžu zdráhať zdieľať svoje údaje). Študenti môžu získať pochopenie rôznych rizík v oblasti bezpečnosti a ochrany súkromia modelov ML a môžu ďalej rozvíjať viac praktických zručností na audit modelov ML v súvisiacich praktických vzdelávacích podujatiach, ktorými sú:
- Praktické: Zvýšenie bezpečnosti a odolnosti ML
- Praktické: Uplatňovať audítorské rámce
- Praktické: Uplatňovanie a hodnotenie techník na zachovanie súkromia
- Praktické: Audit rámcov ochrany súkromia a údajov
Obrysy
Trvanie (min) | Popis | Koncepty |
---|---|---|
5 | Triáda CIA | CIA (dôvernosť, intergrita, dostupnosť) v strojovom učení |
15 | Dôverný | Útok na členstvo, extrakcia údajov z tréningu. Model kradnúť. |
20 | Integrita | Úniky, otravy (cielené, necielené), obchádzanie vysvetliteľnosti, zadné dvierka. |
15 | Dostupnosť | Generovanie príkladov špongie. |
5 | Závery |
Uznania
Program Masters umelej inteligencie zameraný na človeka bol spolufinancovaný z Nástroja Európskej únie na prepájanie Európy v rámci grantu CEF-TC-2020 – 1 Digitálne zručnosti 2020-EU-IA-0068.