Administrative oplysninger
Titel | Tillidsmodeller og kvantificering af tillid |
Varighed | 90 min. |
Modul | C |
Lektionstype | Forelæsning |
Fokus | Teknisk — fremtidig kunstig intelligens |
Emne | Nye evalueringer af HCAI-modeller |
Nøgleord
Tillid, tillid,
Læringsmål
- Forstå tillid som en AI-dytue
- Forstå vurderingslisten for pålidelig AI (ALTAI)
- Være i stand til at foretage en selvevaluering til ALTAI-listen
Forventet forberedelse
Læringsbegivenheder, der skal fuldføres før
Obligatorisk for studerende
- Ingen
Valgfrit for studerende
- Altai liste
Referencer og baggrund for studerende
- Floridi, L. (2021). Fastsættelse af regler for opbygning af pålidelig kunstig intelligens. Etik, regeringsførelse og politikker inden for kunstig intelligens, 41-45.
Anbefalet til lærerne
- (AI HLEG) Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens, Etiske retningslinjer for pålidelig kunstig intelligens, Europa -Kommissionen, Text, Apr. 2019. Tilgået: 26. oktober 2020.
- Zerilli, J., Bhatt, U., & Weller, A. (2022). Hvordan gennemsigtighed modulerer tilliden til kunstig intelligens. Mønstre.
Undervisningsmaterialer
Instruktioner til lærerne
- Indledning (10 min)
- Europæisk tilgang til AI-tillid (10 min.)
- Menneskeligt agentur og tilsyn (15 min.)
- Teknisk robusthed og sikkerhed (5 min)
- Beskyttelse af personlige oplysninger og datastyring (5 min)
- Gennemsigtighed (15 min)
- Mangfoldighed, ikke-forskelsbehandling og retfærdighed (10 min)
- Samfundsmæssige og miljømæssige virkninger
- Ansvarlighed
Omrids
Anerkendelser
Ingen
Programmet Human-Centered AI Masters blev samfinansieret af Connecting Europe-faciliteten i Den Europæiske Union under tilskud CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.