Administrative oplysninger
Titel | Pålidelig maskinindlæring |
Varighed | 60 min. |
Modul | B |
Lektionstype | Forelæsning |
Fokus | Etisk — pålidelig kunstig intelligens |
Emne | Fortrolighed, integritet og tilgængelighedsproblemer i maskinlæring |
Nøgleord
Fortrolighed,Integritet,Tilgængelighed, Forgiftning,Evasion,Adversarielle eksempler,Svampe eksempler, Bagdøre,Forklarlighed unddragelse,Robustness, Trade-off,
Læringsmål
- Få et generelt overblik over de vigtigste sikkerhedsproblemer ved maskinindlæring
- Forståelse af de vigtigste fortroligheds-, integritets- og tilgængelighedsproblemer i forbindelse med maskinlæring
- At skelne mellem unddragelse, forgiftning og bagdørsangreb
- Forståelse af renmærkede forgiftningsangreb
- Få intuitionen af kontradiktoriske eksempler og dens praktiske virkning gennem eksempler fra det virkelige liv
- Demonstration af tilgængelighedsangreb ved kunstigt konstruerede svampeeksempler
- Forståelse af truslen om forklarlighed unddragelse
- Forståelse af afvejningen mellem robusthed og modelkvalitet
- Lær principperne for AI (robusthed) auditering
Forventet forberedelse
Læringsbegivenheder, der skal fuldføres før
Obligatorisk for studerende
- Grundlæggende i Machine Learning
Valgfrit for studerende
Ingen.
Referencer og baggrund for studerende
- HCAIM Webinar om den europæiske tilgang til pålidelig, sikker og pålidelig kunstig intelligens (tilgængelig på YouTube)
- Kontradiktoriske eksempler og kontradiktorisk træning
- Kontradiktorisk robusthed — teori og praksis
- Forgiftning angreb mod støtte vektor maskiner
- Praktiske Black-Box angreb mod maskinlæring
- På vej mod at evaluere robustheden af neurale netværk
- Certificeret Adversarial Robustness via Randomized Smoothing
- Svampeeksempler: Energi-Latency angreb på neurale netværk
- Forklaringer kan manipuleres og geometri er skylden
- Giftfrøer! Målrettede Clean-Label forgiftning angreb på neurale netværk
- Omfattende privatlivsanalyse af dyb læring
- Datasikkerhed og pålidelig maskinlæring
Anbefalet til lærerne
Undervisningsmaterialer
Instruktioner til lærerne
Dette kursus giver et overblik over maskinindlæringssystemers sikkerhed. Det fokuserer på angreb, der er nyttige til at auditere robusthed maskinindlæringsmodeller. Det anbefales, at lærere bruger eksempler fra det virkelige liv til at påvise den praktiske relevans af disse sårbarheder, navnlig for spørgsmål vedrørende privatlivets fred, hvis praktiske relevans ofte drøftes og betragtes som en hindring for menneskelig udvikling. Studerende skal forstå, at privatlivsrisici også kan bremse fremskridt (parter, der står over for fortrolighedsrisici, kan være tilbageholdende med at dele deres data). Studerende kan få forståelse af de forskellige sikkerheds- og privatlivsrisici ved ML-modeller og kan videreudvikle mere praktiske færdigheder til at revidere ML-modeller i de relaterede praktiske læringsbegivenheder, som er:
- Praktisk: Forbedring af ML-sikkerheden og robustheden
- Praktisk: Anvende revisionsrammer
- Praktisk: Anvendelse og evaluering af privatlivsbevarende teknikker
- Praktisk: Revision af rammer for privatlivets fred og databeskyttelse
Omrids
Varighed (min) | Beskrivelse | Koncepter |
---|---|---|
5 | CIA triad | CIA (fortrolighed, intergritet, tilgængelighed) i Machine Learning |
15 | Fortrolighed | Medlemskab angreb, træning dataudtræk. Model stjæler. |
20 | Integritet | Undvigelse, forgiftning (målrettet, umålrettet), Evading forklarbarhed, bagdøre. |
15 | Tilgængelighed | Fremstilling af svampeeksempler. |
5 | Konklusioner |
Anerkendelser
Programmet Human-Centered AI Masters blev samfinansieret af Connecting Europe-faciliteten i Den Europæiske Union under tilskud CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.