Informații administrative
Titlu | Învățarea mașinilor de încredere |
Durată | 60 min |
Modulul | B |
Tipul lecției | Prelegere |
Focalizare | Etică – IA demnă de încredere |
Subiect | Probleme de confidențialitate, integritate și disponibilitate în învățarea mașinilor |
Cuvinte cheie
Confidențialitate,Integritate, Disponibilitate, Otravire, Evadare, Exemple Adversariale, Exemple Sponge, Backdoors,Explicabilitatea evaziunii,Robustness,Trade-off,
Obiective de învățare
- Obțineți o imagine de ansamblu asupra principalelor probleme de securitate ale învățării automate
- Înțelegerea principalelor probleme de confidențialitate, integritate și disponibilitate ale învățării automate
- Distingerea evaziunii, otrăvirii și atacurilor backdoors
- Înțelegerea atacurilor de otrăvire cu etichetă curată
- Obțineți intuiția exemplelor contradictorii și impactul său practic prin exemple din viața reală
- Demonstrarea atacurilor de disponibilitate prin exemple de burete construite artificial
- Înțelegerea amenințării evaziunii în ceea ce privește explicabilitatea
- Înțelegerea compromisului dintre robustețe și calitatea modelului
- Aflați principiile auditului AI (robustness)
Pregătirea preconizată
Evenimente de învățare care urmează să fie finalizate înainte
Obligatoriu pentru studenți
- Elemente de bază în învățarea mașinilor
Opțional pentru studenți
Nici unul.
Referințe și context pentru studenți
- Webinarul HCAIM privind abordarea europeană către o IA fiabilă, sigură și de încredere (disponibilă pe YouTube)
- Exemple contradictorii și formare adversă
- Robustness adversarial – teorie și practică
- Atacuri de otrăvire împotriva mașinilor vectoriale de sprijin
- Atacuri practice Black-Box împotriva învățării automate
- Pentru evaluarea robusteții rețelelor neuronale
- Robustness Adversarial Certified via Randomized Smoothing
- Exemple de burete: Atacurile de latență energetică asupra rețelelor neuronale
- Explicațiile pot fi manipulate și geometria este de vină
- Broaște otrăvitoare! Atacuri cu etichete curate asupra rețelelor neuronale
- Analiza cuprinzătoare a confidențialității învățării profunde
- Confidențialitatea datelor și învățarea mașinilor de încredere
Recomandat pentru profesori
Materiale de lecție
Instrucțiuni pentru profesori
Acest curs oferă o imagine de ansamblu a securității sistemelor de învățare automată. Acesta se concentrează pe atacuri care sunt utile pentru auditarea modelelor de învățare automată a robusteții. Profesorilor li se recomandă să utilizeze exemple din viața reală pentru a demonstra relevanța practică a acestor vulnerabilități, în special pentru aspectele legate de confidențialitate, a căror relevanță practică este adesea dezbătută și considerată ca un obstacol în calea dezvoltării umane. Elevii trebuie să înțeleagă că riscurile de confidențialitate pot încetini, de asemenea, progresul (părțile care se confruntă cu riscuri de confidențialitate pot fi reticente în a partaja datele lor). Elevii pot înțelege diferitele riscuri de securitate și confidențialitate ale modelelor ML și pot dezvolta în continuare mai multe abilități practice pentru a audita modelele ML în evenimentele practice conexe de învățare, care sunt:
- Practică: Îmbunătățirea securității și robusteții ML
- Practică: Aplicarea cadrelor de audit
- Practică: Aplicarea și evaluarea tehnicilor de conservare a vieții private
- Practică: Cadrele de audit privind confidențialitatea și protecția datelor
Contur
Durată (min) | Descriere | Concepte |
---|---|---|
5 | Triada CIA | CIA (confidențialitate, intergritate, disponibilitate) în Machine Learning |
15 | Confidențialitatea | Atac de membru, extragerea datelor de antrenament. Să fure modele. |
20 | Integritate | Evaziunea, otrăvirea (vizată, nevizată), explicabilitatea evacuării, Backdoors. |
15 | Disponibilitate | Generarea de exemple de burete. |
5 | Concluzii |
Confirmări
Programul de masterat AI centrat pe om a fost cofinantat de Mecanismul pentru interconectarea Europei al Uniunii Europene sub Grantul CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.