Adminisztratív információk
Cím | Megbízható gépi tanulás |
Időtartam | 60 perc |
Modul | B |
Lecke típusa | Előadás |
Fókusz | Etikus – megbízható mesterséges intelligencia |
Téma | Titoktartási, integritási és rendelkezésre állási problémák a gépi tanulásban |
Kulcsszó
Bizalmasság,Integrity,Availability,Poisoning,Evasion,Adversariális példák, szivacs példák,Háttérajtók,Kiterjeszthetőségi csalás,Robustness,Trade-off,
Tanulási célok
- Általános áttekintést kap a gépi tanulás főbb biztonsági problémáiról
- A gépi tanulás fő titoktartási, integritási és rendelkezésre állási problémáinak megértése
- Az adókikerülés, a mérgezés és a hátsó ajtók támadásainak megkülönböztetése
- A tiszta címkézésű mérgezési támadások megértése
- Szerezze meg a kontradiktórius példák intuícióját és gyakorlati hatását a valós példákon keresztül
- Mesterségesen készített szivacsok rendelkezésre állási támadásainak bemutatása
- A megmagyarázhatósági kikerülés veszélyének megértése
- A robusztusság és a modellminőség közötti kompromisszum megértése
- Ismerje meg az AI (robustness) audit alapelveit
Várható előkészítés
Az előtt befejezendő tanulási események
Kötelező a diákok számára
- A gépi tanulás alapjai
Választható diákok számára
Egy sem.
Referenciák és háttér a diákok számára
- HCAIM Webinar a megbízható, biztonságos és megbízható mesterséges intelligencia felé vezető európai megközelítésről (elérhető a YouTube-on)
- Kontradiktórius példák és kontradiktórius képzés
- Kontradiktórius robusztusság – elmélet és gyakorlat
- Mérgezési támadások a támogató vektorgépek ellen
- Gyakorlati Black-Box támadások a gépi tanulás ellen
- A neurális hálózatok megbízhatóságának értékelése felé
- Tanúsított kontradiktórius rugalmasság véletlenszerű simítással
- Szivacs Példák: Energia-Latency támadások a neurális hálózatokon
- A magyarázatok manipulálhatók, és a geometria a hibás
- Mérgezett békák! Célzott mérgezési támadások a neurális hálózatokon
- A mély tanulás átfogó adatvédelmi elemzése
- Adatvédelem és megbízható gépi tanulás
Ajánlott tanároknak
Leckeanyagok
Utasítások tanároknak
Ez a kurzus áttekintést nyújt a gépi tanulási rendszerek biztonságáról. Olyan támadásokra összpontosít, amelyek hasznosak a robusztusság gépi tanulási modellek auditálásához. Javasoljuk, hogy a tanárok valós példákat használjanak e sebezhetőségek gyakorlati jelentőségének bizonyítására, különösen a magánélet védelmével kapcsolatos kérdésekben, amelyek gyakorlati relevanciáját gyakran vitatják és akadályozzák az emberi fejlődést. A diákoknak meg kell érteniük, hogy az adatvédelmi kockázatok is lassíthatják a haladást (a titoktartási kockázatokkal szembesülő felek vonakodhatnak megosztani adataikat). A diákok megismerhetik az ML modellek különböző biztonsági és adatvédelmi kockázatait, és tovább fejleszthetik az ML modellek auditálásához szükséges gyakorlati készségeket a kapcsolódó gyakorlati tanulási eseményeken, amelyek:
- Gyakorlati: Az ML-biztonság és a robusztusság fokozása
- Gyakorlati: Ellenőrzési keretek alkalmazása
- Gyakorlati: Magánélet-megőrzési technikák alkalmazása és értékelése
- Gyakorlati: A magánélet és az adatvédelem ellenőrzési keretrendszerei
Vázlat
Időtartam (perc) | Leírás | Fogalmak |
---|---|---|
5 | CIA-triád | CIA (bizalmasság, intergritás, elérhetőség) a gépi tanulásban |
15 | Titoktartás | Tagsági támadás, kiképzési adatok kinyerése. Modelllopás. |
20 | Tisztesség | Kikerülés, mérgezés (célzott, nem célzott), a megmagyarázhatóság kiürítése, Backdoors. |
15 | Rendelkezésre állás | Szivacsos példák generálása. |
5 | Következtetések |
Visszaigazolások
A Human-Centered AI Masters programot az Európai Unió Európai Hálózatfinanszírozási Eszköze (CEF-TC-2020–1 Digitális készségek 2020 EU-IA-0068) társfinanszírozta.