Administratieve informatie
Titel | Vertrouwensmodellen en vertrouwen kwantificering |
Looptijd | 90 min |
Module | C |
Type les | Lezing |
Focus | Technisch — Toekomstige AI |
Onderwerp | Opkomende evaluaties voor HCAI-modellen |
Sleutelwoorden
Betrouwbaarheid, vertrouwen,
Leerdoelen
- Begrijp vertrouwen als een AI Virtue
- Maak kennis met de Assessment List for Trustworthy AI (ALTAI)
- In staat zijn om een zelfbeoordeling uit te voeren op de ALTAI-lijst
Verwachte voorbereiding
Leren van gebeurtenissen die moeten worden voltooid voordat
Verplicht voor studenten
- Geen
Optioneel voor studenten
- Lijst van Altai
Referenties en achtergronden voor studenten
- Floridi, L. (2021). Vaststelling van de regels voor het bouwen van betrouwbare AI. Ethiek, governance en beleid in kunstmatige intelligentie, 41-45.
Aanbevolen voor docenten
- (AI HLEG) deskundigengroep op hoog niveau inzake kunstmatige intelligentie, ethische richtsnoeren voor betrouwbare AI, Europese Commissie, Tekst, april 2019. Geraadpleegd: 26 oktober 2020.
- Zerilli, J., Bhatt, U., & Weller, A. (2022). Hoe transparantie het vertrouwen in kunstmatige intelligentie moduleert. Patronen.
Lesmateriaal
Instructies voor docenten
- Introductie (10 min)
- Europese aanpak van AI-vertrouwen (10 min)
- Menselijk Agentschap en Oversight (15 min)
- Technische robuustheid en veiligheid (5 min)
- Privacy en data governance (5 min)
- Transparantie (15 min)
- Diversiteit, non-discriminatie en eerlijkheid (10 min)
- Maatschappelijke en milieueffecten
- Verantwoording
Omtrek
Erkenningen
Geen
Het Human-Centered AI Masters-programma werd mede gefinancierd door de Connecting Europe Facility van de Europese Unie in het kader van de subsidie CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.