Informazioni amministrative
Titolo | Apprendimento automatico affidabile |
Durata | 60 min |
Modulo | B |
Tipo di lezione | Lezione |
Focus | Etico — AI affidabile |
Argomento | Problemi di riservatezza, integrità e disponibilità nell'apprendimento automatico |
Parole chiave
Riservatezza, Integrità, Disponibilità,Poisoning,Evasione,Esempiversali,Esempi di spedizione,Backdoors,Evasività,Robustness, Trade-off,
Obiettivi di apprendimento
- Ottieni una panoramica generale dei principali problemi di sicurezza dell'apprendimento automatico
- Comprendere i principali problemi di riservatezza, integrità e disponibilità del machine learning
- Distinguere gli attacchi di evasione, avvelenamento e backdoor
- Comprendere gli attacchi di avvelenamento da etichetta pulita
- Ottenere l'intuizione di esempi contraddittori e il suo impatto pratico attraverso esempi di vita reale
- Dimostrazione degli attacchi di disponibilità mediante esempi di spugna costruiti artificialmente
- Comprendere la minaccia dell'evasione della spiegabilità
- Comprendere il compromesso tra robustezza e qualità del modello
- Impara i principi dell'auditing dell'IA (robustness)
Preparazione prevista
Eventi di apprendimento da completare prima
Obbligatorio per gli studenti
- Nozioni di base nell'apprendimento automatico
Facoltativo per gli studenti
Nessuno.
Referenze e background per gli studenti
- HCAIM Webinar sull'approccio europeo verso un'IA affidabile, sicura e affidabile (disponibile su YouTube)
- Esempi di contraddittorio e formazione in contraddittorio
- Robustezza avversaria — Teoria e pratica
- Attacchi di avvelenamento contro le macchine vettoriali di supporto
- Attacchi pratici Black-Box contro l'apprendimento automatico
- Verso la valutazione della robustezza delle reti neurali
- Robustezza avversaria certificata tramite lumini casuali
- Esempi di spugna: Attacchi Energy-Latency alle reti neurali
- Le spiegazioni possono essere manipolate e la geometria è da biasimare
- Rane velenose! Attacchi avvelenanti Clean-Label mirati alle reti neurali
- Analisi completa della privacy dell'apprendimento profondo
- Privacy dei dati e apprendimento automatico affidabile
Consigliato per gli insegnanti
Materiale didattico
Istruzioni per gli insegnanti
Questo corso fornisce una panoramica della sicurezza dei sistemi di apprendimento automatico. Si concentra sugli attacchi che sono utili per l'audit dei modelli di apprendimento automatico di robustezza. Si raccomanda agli insegnanti di utilizzare esempi di vita reale per dimostrare la rilevanza pratica di queste vulnerabilità, in particolare per le questioni relative alla privacy, la cui rilevanza pratica è spesso discussa e considerata un ostacolo allo sviluppo umano. Gli studenti devono capire che i rischi per la privacy possono anche rallentare i progressi (le parti che affrontano rischi di riservatezza possono essere riluttanti a condividere i loro dati). Gli studenti possono acquisire comprensione dei diversi rischi per la sicurezza e la privacy dei modelli di ML e possono ulteriormente sviluppare competenze più pratiche per verificare i modelli di ML nei relativi eventi di apprendimento pratico, che sono:
- Pratico: Migliorare la sicurezza e la robustezza del ML
- Pratico: Applicare quadri di audit
- Pratico: Applicare e valutare le tecniche di tutela della privacy
- Pratico: Quadri di audit in materia di privacy e protezione dei dati
Contorno
Durata (min) | Descrizione | Concetti |
---|---|---|
5 | Triade della CIA | CIA (riserva, intergrità, disponibilità) nell'apprendimento automatico |
15 | Confidenzialità | Attacco di appartenenza, estrazione dei dati di addestramento. Il furto del modello. |
20 | Integrità | Evasione, avvelenamento (mirato, non mirato), Evadere spiegabilità, Backdoors. |
15 | Disponibilità | Generare esempi di spugna. |
5 | Conclusioni |
Riconoscimenti
Il programma Human-Centered AI Masters è stato co-finanziato dal meccanismo per collegare l'Europa dell'Unione europea nell'ambito della sovvenzione CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.