Verwaltungsinformationen
Titel | Vertrauen, Normativität und Modell Drift |
Dauer | 60 |
Modulen | C |
Unterrichtstyp | Interaktive Sitzung |
Fokussierung | Technisches – Zukunfts-KI |
Themenbereich | Offene Probleme und Herausforderungen |
Suchbegriffe
Vertrauen, Modelldrift, Normativität,
Lernziele
- Anwenden von Trust Frameworks auf mehrere AI/ML-Beispiele
- Vorschlag von Vertrauensmetriken für Beispielfallstudien und Verknüpfung mit dem EU-Treuhandrahmen
- Digitale Normativität im Kontext von Beispielfallstudien diskutieren
- Identifizieren und Modellieren Sie Drift-Potenzial in Beispielfallstudien und schlagen Sie Drift-Metriken und -Lösungen vor, um das Vertrauen des Modells zu stärken
Erwartete Vorbereitung
Lernveranstaltungen, die vorab abgeschlossen werden müssen
Obligatorisch für Studenten
Optional für Studenten
Referenzen und Hintergründe für Studierende
Empfohlen für Lehrer
Keine.
Unterrichtsmaterialien
Anleitung für Lehrer
Regen Sie die Schüler an, sich an Diskussionen zu beteiligen. Führen und leiten Sie die Diskussion im Rahmen der Diskussionspunkte. Ermutigen Sie die Schüler, sich auf die Beweise zu konzentrieren und zu unterbrechen, wenn sie über andere sprechen. Notieren Sie sich alle Diskussionspunkte und teilen Sie den Diskussionspfad am Ende der Klasse. Geben Sie abschließende Bemerkungen der Diskussion mit möglichen offenen Fragen und Herausforderungen.
Gliederung
Dauer (min) | Beschreibung |
---|---|
5 | Problemdefinition |
25 | Beispiele für Modelldrift, Modell Drift |
15 | Diskussion um Normativität, Anwendung von Vertrauensrahmen auf KI/ML-Modelle |
5 | Zusammenfassung der Diskussion über Modell Drift und Normativität und offene Fragen |
Danksagung
Das Human-Centered AI Masters-Programm wurde von der Fazilität „Connecting Europe“ der Europäischen Union im Rahmen des Zuschusses „CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068“ kofinanziert.