Administratieve informatie
Titel | Ethiek van de plicht |
Looptijd | 60 |
Module | A |
Type les | Lezing |
Focus | Ethisch — Ethische Grondbeginselen |
Onderwerp | Ethiek van de plicht |
Sleutelwoorden
Plichtsethiek, Kant,
Leerdoelen
- De leerling kan keuzes beoordelen over welke onderwerpen moeten worden gedaan.
- De leerling begrijpt het begrip moraal.
- De leerling heeft een basiskennis van hoe deze punten zich verhouden tot AI.
Verwachte voorbereiding
Leren van gebeurtenissen die moeten worden voltooid voordat
Geen.
Verplicht voor studenten
Geen.
Optioneel voor studenten
- Plichtsethiek — Kant: School of Life — Kant & categorische imperatieven: Crash Cursus Filosofie#35.
- Kranak, J. Inleiding tot de filosofie: Ethiek. Hoofdstuk 6. Kantian Deontologie. [1]
- Gensler, H. J. (2017). Ethiek: Een eigentijdse introductie. Routledge. CH 7 Kant en GR, CH11 Nonconsequentialism (deontologie)
- Kantiaanse ethiek. Otfried Höffe. In Roger Crisp (ed.), The Oxford Handbook of the History of Ethics. De Universiteit van Oxford (2013)
Referenties en achtergronden voor studenten
Geen.
Aanbevolen voor docenten
- Ulgen, Ozlem. „Kantian ethiek in het tijdperk van kunstmatige intelligentie en robotica.” QIL 43 (2017): 59-83. [2]
- Alexander, Larry en Michael Moore „Deontologische ethiek” op Stanford Encyclopedia of Philosophy, Stanford University, 21 november 2007, [3].
- I. Kant „Kritiek van de Praktische Rede” (1788) en „Grondwerk van de Metafysica van Morals” (1785)
- P.W. Singer, „Isaac Asimov’s wetten van robotica zijn verkeerd”, 2009. [4]
Instructies voor docenten
Onderwerpen om te dekken
- Inleiding: verschillen tussen verschillende normatieve theorieën (5 min)
- Plichtsethiek (35 min)
- Wat is een „plicht”? (5 min)
- Kant en de rol van de menselijke rede (10 min)
- Maxims en imperatieven — Voorbeeld Code of Ethics and Professional Practice (ACM/IEEE-CS) (15 min)
- Critici van plichtsethiek, voor- en nadelen (5 min)
- Plichtsethiek en AI (30 min)
- Voorbeelden van dilemma’s (10 min) [Digitale discriminatie (Social Network Bias) en Autonome voertuigen]
- Trolley probleem, verschillende versies, met korte discussie (10 min)
- Isaac Asimov’s wetten van Robotica (5 min)
- Evaluatie van een actie op basis van plichtsethiek (5 min)
Interactieve momenten
Er zijn verschillende interactieve momenten (bijvoorbeeld korte discussies) met studenten:
- Waarden: Vragen die kunnen worden gesteld zijn:
- Welke waarden zijn voor u van belang?
- Welke tegenstrijdigheden zie je met betrekking tot waarden, heb je voorbeelden waarin deze tegenstrijdigheden zich voordoen?
- Plichtsethiek/verplichtingen — Vragen die kunnen worden gesteld zijn:
- Wat zijn mogelijke problemen met plichtsethiek in de praktijk?
- Zou je altijd het juiste doen, zelfs als het een slecht resultaat oplevert?
- Kunt u voorbeelden geven van het gebruik van de categorische noodzaak in het dagelijks leven?
- Plichtsethiek relatie met AI: Vragen die kunnen worden gesteld zijn:
- Denk je dat we een deontologisch moreel model kunnen gebruiken om een moreel kader te bieden voor AI?
- Gelooft u dat de categorische noodzaak van toepassing is op AI?
- Zou je rijden met auto’s zonder bestuurder die uitwijken om voetgangers te redden, zelfs ten koste van passagiers?
Erkenningen
Het Human-Centered AI Masters-programma werd mede gefinancierd door de Connecting Europe Facility van de Europese Unie in het kader van de subsidie CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.