[diese Seite im Wiki][Index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Interaktive Sitzung: Pflichtethik

Verwaltungsinformationen

Titel Pflichtethik – Debatte
Dauer 55
Modulen A
Unterrichtstyp Interaktive Sitzung
Fokussierung Ethisch – Ethik-Grundlagen
Themenbereich Ethik von selbstfahrenden Autos

Suchbegriffe

Pflichtethik, selbstfahrende Autos, moralische Kompromisse,

Lernziele

Erwartete Vorbereitung

Lernveranstaltungen, die vorab abgeschlossen werden müssen

Obligatorisch für Studenten

  • Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, F. & Rahwan, I. (2018). Das moralische Maschinenexperiment. Natur, 563(7729), 59-64. [1]
  • Pflichtethik – Kant: Schule des Lebens – Kant & Kategorische Imperative: Crash Course Philosophie#35.

Optional für Studenten

  • Alexander, Larry, und Michael Moore „Deontological Ethics“ auf Stanford Encyclopedia of Philosophy, Stanford University, 21. November 2007. [2]
  • Panza, C., & Potthast, A. (2010). Ethik für Dummies. John Wiley & Sons.

Referenzen und Hintergründe für Studierende

Keine.

Empfohlen für Lehrer

  • Jedes Papier, das die Ethik hinter selbstfahrenden Autos erforscht
  • Die Moral Machine Projektseite
  • Greene, J. D. (2016). Unser fahrerloses Dilemma. Wissenschaft, 352(6293), 1514-1515. [3]

Unterrichtsmaterialien

Anleitung für Lehrer

Studenten sollten eine Gruppe von 3-4 bilden und versuchen, über einen gefälschten Szenario-Fall zu diskutieren, versuchen, Positives und Misserfolge bei der Gestaltung eines selbstfahrenden Fahrzeugs nach pflichtethischen Prinzipien aus verschiedenen Blickwinkeln (z. B. Fahrgast, Fußgänger) zu betonen. Sie sollten versuchen, ihnen bei der Beantwortung mehrerer Fragen zu diesem Thema zu helfen, zum Beispiel:

Was denkst du?

Es ist wichtig, neben einer geführten Diskussion eine Debatte zu führen.

Am Ende können Sie Ihren Schülern bei einer abschließenden Übung helfen. Mit der moralischen Maschinenplattform stehen die Schüler vor moralischen Dilemmata, in denen ein fahrerloses Auto das kleinere von zwei Übeln in einem unvermeidlichen Kollisionsszenario wählen muss. Als externer Beobachter werden die beiden Gruppen beurteilen, welches Ergebnis akzeptabeler ist und mit ihren Ergebnissen konfrontiert werden.

Themen zu decken

Danksagung

Das Human-Centered AI Masters-Programm wurde von der Fazilität „Connecting Europe“ der Europäischen Union im Rahmen des Zuschusses „CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068“ kofinanziert.