Informazioni amministrative
Titolo | Rischio & Mitigazione del Rischio nella pratica |
Durata | 60 minuti |
Modulo | B |
Tipo di lezione | Pratico |
Focus | Etico — AI affidabile |
Argomento | Rischio |
Parole chiave
Rischio, attenuazione dei rischi,
Obiettivi di apprendimento
- Lo studente ottiene esperienza pratica con i framework di rischio
- Lo studente ottiene esperienza pratica con gli standard pertinenti.
Preparazione prevista
Eventi di apprendimento da completare prima
Obbligatorio per gli studenti
- Concetti di rischio e loro mitigazione
Facoltativo per gli studenti
Nessuno.
Referenze e background per gli studenti
Nessuno.
Consigliato per gli insegnanti
- Leggete voi stessi la bozza standard
Materiale didattico
- Legge sull'intelligenza artificiale (legislazione non elaborata dal consorzio HCAIM)
- Norma IEEE 7000-2021 (norme non sviluppate dal consorzio HCAIM)
Istruzioni per gli insegnanti
- Questa attività si basa sul processo di modello standard IEEE 7000-2021 per affrontare le preoccupazioni etiche durante la progettazione del sistema.
- Questa norma dovrebbe essere approvata dalla legge UE sull'IA con una personalizzazione specifica.
Questo standard viene fornito con un approccio basato sul rischio
- Per ogni team di 4-6 studenti, specificare un sistema di IA immaginario che gli studenti devono sviluppare. *L'idea qui è quella di dare a ciascun gruppo qualcosa di diverso (secondo le categorie di rischio dell'EU AI Act). Esempi:
- sorveglianza con riconoscimento facciale per un aeroporto (suggerimento: questo è vietato tranne in casi molto ben definiti)
- sistema automatizzato di classificazione dei saggi (suggerimento: probabilmente ad alto rischio, la vista umana necessaria)
- sistema di raccomandazione per serie TV (a basso rischio, ma ci sono disposizioni per i bambini)
- in-game chat bot AI per un MMORPG (a basso rischio)
- Far leggere il capitolo sulla categorizzazione dei rischi della legge sull'IA (titolo II e titolo III)
Guida ai docenti
- Questa attività si basa sul processo di modello standard IEEE 7000-2021 per affrontare le preoccupazioni etiche durante la progettazione del sistema.
- Questa norma dovrebbe essere approvata dalla legge UE sull'IA con una personalizzazione specifica.
- Questo standard viene fornito con un approccio basato sul rischio
- Per ogni team di 4-6 studenti, specificare un sistema di IA immaginario che gli studenti devono sviluppare. L'idea è quella di dare a ciascun gruppo qualcosa di diverso (secondo le categorie di rischio dell'EU AI Act). Esempi:
- sorveglianza con riconoscimento facciale per un aeroporto (suggerimento: questo è vietato tranne in casi molto ben definiti)
- sistema automatizzato di classificazione dei saggi (suggerimento: probabilmente ad alto rischio, la vista umana necessaria)
- sistema di raccomandazione per serie TV (a basso rischio, ma ci sono disposizioni per i bambini)
- in-game chat bot AI per un MMORPG (a basso rischio)
- Far leggere il capitolo sulla categorizzazione dei rischi della legge sull'IA (titolo II e titolo III)
Riconoscimenti
Il programma Human-Centered AI Masters è stato co-finanziato dal meccanismo per collegare l'Europa dell'Unione europea nell'ambito della sovvenzione CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.