Administrativ information
Titel | Tillförlitlig maskininlärning |
Varaktighet | 60 min |
Modul | B |
Typ av lektion | Föreläsning |
Fokus | Etiskt – tillförlitlig AI |
Ämne | Sekretess, integritet och tillgänglighetsproblem i maskininlärning |
Nyckelord
Sekretess, Integritet, Tillgänglighet, Förgiftning, Övervakning, Adversarial exempel,Sponge exempel, Bakdörrar, Förklarbarhet skatteundandragande, Robustness, Trade-off,
Lärandemål
- Få en allmän översikt över de viktigaste säkerhetsproblemen med maskininlärning
- Förstå de viktigaste sekretess-, integritets- och tillgänglighetsfrågorna för maskininlärning
- Särskilja skatteundandragande, förgiftning och bakdörrar attacker
- Förstå renmärkta förgiftningsattacker
- Få intuitionen av kontradiktoriska exempel och dess praktiska inverkan genom verkliga exempel
- Demonstration av tillgänglighetsangrepp med artificiellt konstruerade svampexempel
- Förstå hotet om förklarbarhet undandragande
- Förstå avvägningen mellan robusthet och modellkvalitet
- Lär dig principerna för AI-revision (robustness)
Förväntad förberedelse
Lärande händelser som ska slutföras innan
Obligatoriskt för studenter
- Grunderna i maskininlärning
Valfritt för studenter
Ingen.
Referenser och bakgrund för studenter
- HCAIM Webinar om den europeiska strategin mot tillförlitlig, säker och tillförlitlig AI (tillgänglig på YouTube)
- Kontradiktoriska exempel och kontradiktorisk utbildning
- Kontradiktorisk robusthet – teori och praktik
- Förgiftning attacker mot stödvektormaskiner
- Praktiska Black-Box-attacker mot maskininlärning
- För att utvärdera robustheten hos neurala nätverk
- Certifierad Adversarial Robustness via Randomized Smoothing
- Exempel påsvamp: Energi-Latency Attacks på Neurala nätverk
- Förklaringar kan manipuleras och geometri är att skylla på
- Förgiftade grodor! Riktade angrepp mot neurala nätverk med ren märkning
- Omfattande integritetsanalys av djupt lärande
- Datasekretess och tillförlitlig maskininlärning
Rekommenderas för lärare
Lektionsmaterial
Instruktioner för lärare
Denna kurs ger en översikt över säkerheten i maskininlärningssystem. Den fokuserar på attacker som är användbara för att granska robusthet maskininlärningsmodeller. Lärare rekommenderas att använda verkliga exempel för att visa den praktiska relevansen av dessa sårbarheter, särskilt för integritetsrelaterade frågor vars praktiska relevans ofta diskuteras och betraktas som ett hinder för mänsklig utveckling. Eleverna måste förstå att integritetsrisker också kan sakta ner framstegen (parter som står inför sekretessrisker kan vara ovilliga att dela sina data). Studenter kan få förståelse för de olika säkerhets- och integritetsriskerna med ML-modeller och kan ytterligare utveckla mer praktiska färdigheter för att granska ML-modeller i relaterade praktiska lärandehändelser, som är:
- Praktiskt: Förbättra ML-säkerhet och robusthet
- Praktiskt: Tillämpa revisionsramar
- Praktiskt: Tillämpa och utvärdera integritetsbevarande tekniker
- Praktiskt: Granskningsramar för integritet och dataskydd
Konturer
Längd (min) | Beskrivning | Begrepp |
---|---|---|
5 | CIA-triad | CIA (sekretess, intergritet, tillgänglighet) i maskininlärning |
15 | Tystnadsplikt | Medlemsangrepp, utbildningsdatautvinning. Modell stjäla. |
20 | Integritet | Skatteundandragande, förgiftning (riktad, oriktad), Evading Förklarbarhet, Backdoors. |
15 | Tillgänglighet | Generera svamp exempel. |
5 | Slutsatser |
Erkännanden
Masterprogrammet Human-Centered AI har samfinansierats av Fonden för ett sammanlänkat Europa i Europeiska unionen inom ramen för Grant CEF-TC-2020–1 Digital Skills 2020 EU-IA-0068.