Verwaltungsinformationen
Titel | Pflichtethik |
Dauer | 60 |
Modulen | A |
Unterrichtstyp | Vortrag |
Fokussierung | Ethisch – Ethik-Grundlagen |
Themenbereich | Pflichtethik |
Suchbegriffe
Pflichtethik, Kant,
Lernziele
- Der Lernende kann Entscheidungen darüber beurteilen, welche Themen zu tun sind.
- Der Lernende versteht den Begriff der Moral.
- Der Lernende hat ein grundlegendes Verständnis dafür, wie sich diese Punkte auf KI beziehen.
Erwartete Vorbereitung
Lernveranstaltungen, die vorab abgeschlossen werden müssen
Keine.
Obligatorisch für Studenten
Keine.
Optional für Studenten
- Pflichtethik – Kant: Schule des Lebens – Kant & Kategorische Imperative: Crash Course Philosophie#35.
- Kranak, J. Einführung in die Philosophie: Ethik. Kapitel 6. Kantische Deontologie. [1]
- Gensler, H. J. (2017). Ethik: Eine zeitgemäße Einführung. Routledge. Ch 7 Kant und GR, CH11 Nonconsequentialism (Deontologie)
- Kantianische Ethik. Otfried Höffe. Roger Crisp (Hrsg.): Oxford Handbook of the History of Ethics. Oxford University Press (2013)
Referenzen und Hintergründe für Studierende
Keine.
Empfohlen für Lehrer
- Ulgen, Ozlem. „Kantianische Ethik im Zeitalter künstlicher Intelligenz und Robotik.“ QIL 43 (2017): 59-83. [2]
- Alexander, Larry, und Michael Moore „Deontological Ethics“ auf Stanford Encyclopedia of Philosophy, Stanford University, 21. November 2007, [3].
- I. Kant „Kritik der praktischen Vernunft“ (1788) und „Groundwork of the Metaphysics of Morals“ (1785)
- P.W. Singer, „Isaac Asimovs Gesetze der Robotik sind falsch“, 2009. [4]
Unterrichtsmaterialien
Anleitung für Lehrer
Themen zu decken
- Einleitung: Unterschiede zwischen verschiedenen normativen Theorien (5 min)
- Pflichtethik (35 min)
- Was ist eine „Pflicht“? (5 min)
- Kant und die Rolle der menschlichen Vernunft (10 min)
- Maximen und Imperative – Beispielkodex für Ethik und Berufspraxis (ACM/IEEE-CS) (15 min)
- Kritiker der Pflichtethik, Vor- und Nachteile (5 min)
- Pflichtethik und KI (30 min)
- Beispiele für Dilemmata (10 min) [Digitale Diskriminierung (Social Network Bias) und autonome Fahrzeuge]
- Trolley Problem, verschiedene Ausführungen, mit kurzer Diskussion (10 min)
- Isaac Asimovs Gesetze der Robotik (5 min)
- Bewertung einer auf Pflichtethik basierenden Handlung (5 min)
Interaktive Momente
Es gibt mehrere interaktive Momente (z. B. kurze Diskussionen) mit Studierenden:
- Werte: Fragen, die gestellt werden könnten, sind:
- Welche Werte sind Ihnen besonders wichtig?
- Welche Widersprüche sehen Sie in Bezug auf Werte, haben Sie Beispiele, in denen diese Widersprüche auftreten?
- Pflichtethik/Pflichtpflichten – Fragen, die gestellt werden könnten, sind:
- Was sind mögliche Probleme mit der Pflichtethik in der Praxis?
- Würden Sie immer das Richtige tun, auch wenn es ein schlechtes Ergebnis bringt?
- Können Sie Beispiele für die Verwendung des kategorischen Imperativs im Alltag nennen?
- Pflichtethik-Beziehung zur KI: Fragen, die gestellt werden könnten, sind:
- Glauben Sie, dass wir ein deontologisches moralisches Modell verwenden könnten, um einen moralischen Rahmen für KI zu schaffen?
- Glauben Sie, dass der kategorische Imperativ auf KI anwendbar ist?
- Würden Sie ein fahrerloses Auto fahren, um Fußgänger auch auf Kosten der Passagiere zu retten?
Danksagung
Das Human-Centered AI Masters-Programm wurde von der Fazilität „Connecting Europe“ der Europäischen Union im Rahmen des Zuschusses „CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068“ kofinanziert.