Verwaltungsinformationen
Titel | Vertrauensmodelle und Vertrauensquantifizierung |
Dauer | 90 min |
Modulen | C |
Unterrichtstyp | Vortrag |
Fokussierung | Technisches – Zukunfts-KI |
Themenbereich | Neue Bewertungen für HCAI-Modelle |
Suchbegriffe
Vertrauenswürdigkeit, Vertrauen,
Lernziele
- Vertrauen als KI-Virtualität verstehen
- Verstehen Sie die Bewertungsliste für vertrauenswürdige KI (ALTAI)
- In der Lage sein, eine Selbsteinschätzung der ALTAI-Liste durchzuführen
Erwartete Vorbereitung
Lernveranstaltungen, die vorab abgeschlossen werden müssen
Obligatorisch für Studenten
- Keine
Optional für Studenten
- Altai-Liste
Referenzen und Hintergründe für Studierende
- Floridi, L. (2021). Festlegung der Regeln für den Aufbau vertrauenswürdiger KI. Ethik, Governance und Politik in der Künstlichen Intelligenz, 41-45.
Empfohlen für Lehrer
- (AI HLEG) Hochrangige Expertengruppe für Künstliche Intelligenz, Ethikleitlinien für vertrauenswürdige KI, Europäische Kommission, Text, April 2019. Zugriff: 26. Oktober 2020.
- Zerilli, J., Bhatt, U., & Weller, A. (2022). Wie Transparenz das Vertrauen in künstliche Intelligenz moduliert. Muster.
Unterrichtsmaterialien
Anleitung für Lehrer
- Einführung (10 min)
- Europäischer Ansatz für KI-Treuhand(10 min)
- Human Agency and Oversight (15 min)
- Technische Robustheit und Sicherheit (5 min)
- Datenschutz und Data Governance (5 min)
- Transparenz (15 min)
- Vielfalt, Nichtdiskriminierung und Fairness (10 min)
- Gesellschaftliche und ökologische Auswirkungen
- Verantwortlichkeit
Gliederung
Danksagung
Keine
Das Human-Centered AI Masters-Programm wurde von der Fazilität „Connecting Europe“ der Europäischen Union im Rahmen des Zuschusses „CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068“ kofinanziert.