Upravne informacije
Naslov | Zaupanja vredno strojno učenje |
Trajanje | 60 min |
Modul | B |
Vrsta lekcije | Predavanje |
Osredotočenost | Etična – zaupanja vredna umetna inteligenca |
Tema | Težave z zaupnostjo, integriteto in razpoložljivostjo pri strojnem učenju |
Ključne besede
Zaupnost, Integrity, Razpoložljivost, Zastrupitev, Evazija, Nasprotni primeri, Spoge primeri, Backdoors, Razložljivost utaja, Robustness, Trade-off,
Učni cilji
- Pridobite splošen pregled glavnih varnostnih problemov strojnega učenja
- Razumevanje glavnih vprašanj glede zaupnosti, celovitosti in razpoložljivosti strojnega učenja
- Razlikovanje med izmikanjem, zastrupitvijo in napadi na stranska vrata
- Razumevanje napadov zastrupitve s čistimi oznakami
- Pridobivanje intuicije kontradiktornih primerov in njihovega praktičnega vpliva s primeri iz resničnega življenja
- Prikaz napadov razpoložljivosti z umetno izdelanimi primeri gobic
- Razumevanje nevarnosti izogibanja razložljivosti
- Razumevanje kompromisa med robustnostjo in kakovostjo modela
- Naučite se načel revizije umetne inteligence (robustness)
Pričakovana priprava
Učenje Dogodki, ki jih je treba dokončati pred
Obvezno za študente
- Osnove strojnega učenja
Neobvezno za študente
Nobenega.
Reference in ozadje za študente
- HCAIM Webinar o evropskem pristopu k zanesljivi, varni in zaupanja vredni umetni inteligenci (na voljo na YouTubu)
- Kontradiktorni primeri in kontradiktorno usposabljanje
- Kontradiktornost – teorija in praksa
- Zastrupitve Napadi na podporne vektorske stroje
- Praktični napadi Black-Box proti strojnemu učenju
- Ocenjevanje trdnosti nevronskih mrež
- Certificirana kontradiktornost z naključnim drhanjem
- Primeri gobice: Energetski napadi na nevronskih omrežjih
- Razlage je mogoče manipulirati in geometrija je kriva
- Strup žabe! Usmerjeni napadi na nevronske mreže zastrupitve s čistimi oznakami
- Celovita analiza zasebnosti poglobljenega učenja
- Zasebnost podatkov in zaupanja vredno strojno učenje
Priporočeno za učitelje
Gradivo za učne ure
Navodila za učitelje
Ta tečaj zagotavlja pregled varnosti sistemov strojnega učenja. Osredotoča se na napade, ki so koristni za revidiranje modelov robustnosti strojnega učenja. Učiteljem se priporoča, da uporabijo primere iz resničnega življenja, da dokažejo praktično ustreznost teh šibkih točk, zlasti za vprašanja, povezana z zasebnostjo, katerih praktični pomen se pogosto obravnava kot ovira za človekov razvoj. Študenti morajo razumeti, da lahko tudi tveganja za zasebnost upočasnijo napredek (stranke, ki se soočajo s tveganjem zaupnosti, morda neradi delijo svoje podatke). Študenti lahko pridobijo razumevanje različnih tveganj za varnost in zasebnost modelov ML in lahko nadalje razvijejo več praktičnih spretnosti za revizijo modelov ML na povezanih praktičnih učnih dogodkih, ki so:
- Praktično: Izboljšanje varnosti in trdnosti ML
- Praktično: Uporabljati revizijske okvire
- Praktično: Uporaba in vrednotenje tehnik za ohranjanje zasebnosti
- Praktično: Revizijski okviri zasebnosti in varstva podatkov
Obris
Trajanje (min) | Opis | Koncepti |
---|---|---|
5 | CIA triada | CIA (zaupnost, intergrity, razpoložljivost) v strojnem učenju |
15 | Zaupnost | Napad članstva, pridobivanje podatkov za usposabljanje. Model kradel. |
20 | Integriteta | Utaja, zastrupitev (ciljno, neciljno), izogibanje razložljivosti, stranska vrata. |
15 | Razpoložljivost | Ustvarjanje primerov gobice. |
5 | Sklepi |
Priznanja
Program Masters umetne inteligence, ki je bil vključen v človeka, je bil sofinanciran z instrumentom za povezovanje Evrope Evropske unije v okviru nepovratnih sredstev (CEF-TC-2020–1 Digital Skills 2020-EU-IA-0068).