Informazioni amministrative
Titolo | Modelli di fiducia e quantificazione della fiducia |
Durata | 90 min |
Modulo | C |
Tipo di lezione | Lezione |
Focus | Tecnico — Intelligenza Artificiale del Futuro |
Argomento | Valutazioni emergenti per i modelli HCAI |
Parole chiave
Affidabilità, fiducia,
Obiettivi di apprendimento
- Comprendere la fiducia come una virtù AI
- Comprendere l'elenco di valutazione per l'IA affidabile (ALTAI)
- Essere in grado di condurre un'autovalutazione all'elenco ALTAI
Preparazione prevista
Eventi di apprendimento da completare prima
Obbligatorio per gli studenti
- Nessuno
Facoltativo per gli studenti
- Elenco Altai
Referenze e background per gli studenti
- Floridi, L. (2021). Stabilire le regole per costruire un'IA affidabile. Etica, governance e politiche nell'intelligenza artificiale, 41-45.
Consigliato per gli insegnanti
- (AI HLEG) Gruppo di esperti ad alto livello sull'intelligenza artificiale, Linee guida etiche per un'IA affidabile, Commissione europea, testo, aprile 2019. Accesso: 26 ottobre 2020.
- Zerilli, J., Bhatt, U., & Weller, A. (2022). Come la trasparenza modula la fiducia nell'intelligenza artificiale. Modelli.
Materiale didattico
Istruzioni per gli insegnanti
- Introduzione (10 min)
- Approccio europeo alla fiducia nell'IA (10 min)
- Agenzia Umana e Sorveglianza (15 min)
- Robustezza tecnica e sicurezza (5 min)
- Privacy e Data Governance (5 min)
- Trasparenza (15 min)
- Diversità, non discriminazione e correttezza (10 min)
- Impatto sociale e ambientale
- Responsabilità
Contorno
Riconoscimenti
Nessuno
Il programma Human-Centered AI Masters è stato co-finanziato dal meccanismo per collegare l'Europa dell'Unione europea nell'ambito della sovvenzione CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.