Informazioni amministrative
Titolo | AI Risks and Risk Management |
Durata | 90 |
Modulo | B |
Tipo di lezione | Sessione interattiva |
Focus | Etico — AI affidabile |
Argomento | Rischio |
Parole chiave
Rischio AI, gestione del rischio, gestione della resilienza, IA spiegabile, IA interpretabile, sicurezza, resilienza, trasparenza, contabilità,
Obiettivi di apprendimento
- Riconoscere, analizzare e discutere la necessità e il ruolo dei test di sicurezza nell'IA.
- Impiegare documenti, come la legge sull'IA, per classificare i casi d'uso in categorie di rischio.
- Discutere approfonditi e con un vocabolario europeo comune sul rischio di IA e su come l'IA può essere progettata in modo sicuro e benevolo, in modi che non espongono gli esseri umani a rischi inaccettabili di danno, anche quando un comportamento rischioso può portare avanti un obiettivo del sistema.
- Classificare gli obblighi dei fornitori e degli utenti in relazione alla gestione del rischio di IA.
- Discutere i requisiti per i sistemi di IA ad alto rischio ai sensi della legge sull'IA.
- Elaborare e riconoscere specifici rischi e tassonomie di rischio, pertinenti durante le diverse fasi del ciclo di vita dell'IA.
Preparazione prevista
Eventi di apprendimento da completare prima
Nessuno.
Obbligatorio per gli studenti
- Gruppo di esperti di alto livello sull'intelligenza artificiale (AI HLEG). (8 aprile 2019). Commissione europea. "Linee guida etiche per un'IA affidabile.
- Conferenza HCAIM sulla mitigazione del rischio e del rischio
Facoltativo per gli studenti
- HCAIM Webinar sull'approccio europeo verso un'IA affidabile, sicura e affidabile (disponibile su YouTube)
- HCAIM Webinar sul ruolo della sicurezza e della privacy nell'apprendimento automatico (disponibile su YouTube)
Referenze e background per gli studenti
- Gruppo di esperti di alto livello sull'intelligenza artificiale (AI HLEG). (8 aprile 2019). Commissione europea. "Linee guida etiche per un'IA affidabile.
- Conferenza HCAIM sulla mitigazione del rischio e del rischio
Consigliato per gli insegnanti
- Commissione europea: Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce norme armonizzate in materia di intelligenza artificiale (legge sull'intelligenza artificiale), 2021
- Agenzia dell'Unione europea per la cibersicurezza, Malatras, A., Dede, G., "Sfide in materia di cibersicurezza dell'AI": panorama delle minacce per l'intelligenza artificiale, Agenzia europea per la sicurezza delle reti e dell'informazione, 2020
- Gruppo di esperti di alto livello sull'intelligenza artificiale (AI HLEG). (8 aprile 2019). Commissione europea. Linee guida etiche per un'IA affidabile.
- Usi dolorosi e abusi dell'intelligenza artificiale 2020, pubblicazione di Europol
Materiale didattico
Istruzioni per gli insegnanti
Questa sessione interattiva mira a costruire un vocabolario comune per gli studenti per discutere il rischio e la gestione del rischio relativi all'IA, in particolare attraverso l'approccio dell'UE basato sul rischio verso l'IA. I materiali forniti, così come lo schema generale e il calendario della sessione interattiva sono indicativi e presentati al fine di guidare al meglio una discussione con gli studenti. Finché gli obiettivi di apprendimento sono raggiunti, gli istruttori sono incoraggiati a seguire il flusso naturale della discussione.
Schema e calendario della sessione interattiva:
Durata | Argomento | Descrizione |
---|---|---|
15 minuti | Introduzione | Definizione del rischio. Approccio dell'UE alla gestione del rischio di IA. Strategie di gestione del rischio durante tutto il ciclo di vita dell'IA. |
30 minuti | Classificazione del rischio | Asset di IA e tassonomia delle minacce e quadri di gestione del rischio per descrivere le caratteristiche tecniche di progettazione dell'IA. |
30 minuti | Attenuare il rischio | Approccio alla mitigazione del rischio utilizzando casi d'uso e vocabolario comune, e modelli di riferimento per sfruttare la discussione. |
15 minuti | Osservazioni conclusive | Discussione con gli studenti. Domande e risposte. |
Due Webinar HCAIM sono particolarmente rilevanti per questa sessione interattiva. Questi potrebbero essere mostrati prima della discussione o parti di loro potrebbero essere giocate per facilitare gli argomenti e gestire il silenzio.
Riconoscimenti
Questa presentazione è stata sviluppata da George Sharkov e Christina Todorova presso l'European Software Institute — Center Eastern Europe.
La presentazione utilizza diapositive di una presentazione della dott.ssa Mihály Héder presso l'Università di Tecnologia ed Economia di Budapest. Per favore, considera di seguire il suo lavoro.
Il programma Human-Centered AI Masters è stato co-finanziato dal meccanismo per collegare l'Europa dell'Unione europea nell'ambito della sovvenzione CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.