Informations administratives
Titre | Éthique des devoirs |
Durée | 60 |
Module | A |
Type de leçon | Conférence |
Focus | Éthique — Éthique Fondamentaux |
Sujet | Éthique des devoirs |
Mots-clés
Éthique des devoirs, Kant,
Objectifs d’apprentissage
- L’apprenant peut évaluer les choix sur ce que les sujets doivent faire.
- L’apprenant comprend le concept de morale.
- L’apprenant a une compréhension de base de la façon dont ces points se rapportent à l’IA.
Préparation prévue
Événements d’apprentissage à compléter avant
Aucun.
Obligatoire pour les étudiants
Aucun.
Optionnel pour les étudiants
- Éthique du devoir — Kant: École de vie — Kant & Categorical Imperatives: Philosophie du cours de crash #35.
- Kranak, J. Introduction à la philosophie: Éthique. Chapitre 6. La déontologie kantienne. [1]
- Gensler, H. J. (2017). Éthique: Une introduction contemporaine. Routledge. Ch 7 Kant et GR, CH11 Nonconséquentialisme (déontologie)
- Éthique kantienne. Otfried Höffe. Dans Roger Crisp (éd.), The Oxford Handbook of the History of Ethics. Presse de l’Université d’Oxford (2013)
Références et antécédents pour les étudiants
Aucun.
Recommandé pour les enseignants
- Ulgen, Ozlem. «L’éthique kantienne à l’ère de l’intelligence artificielle et de la robotique», QIL 43 (2017): 59-83. [2]
- Alexander, Larry et Michael Moore «Deontological Ethics» sur Stanford Encyclopedia of Philosophy, Université de Stanford, 21 nov. 2007, [3].
- I. Kant «Critique de la raison pratique» (1788) et «Groundwork of the Metaphysics of Morals» (1785)
- P.W. Singer, «Isaac Asimov’s Laws of Robotics Are Wrong», 2009. [4]
Matériel de leçon
Instructions pour les enseignants
Sujets à couvrir
- Introduction: différences entre différentes théories normatives (5 min)
- Éthique du devoir (35 min)
- Qu’est-ce qu’un «devoir»? (5 min)
- Kant et le rôle de la raison humaine (10 min)
- Maximes et impératifs — Exemple de code d’éthique et de pratique professionnelle (ACM/IEEE-CS) (15 min)
- Critiques de l’éthique du devoir, pour et contre (5 min)
- Éthique des devoirs et IA (30 min)
- Exemples de dilemmes (10 min) [Digital Discrimination (Social Network Bias) et véhicules autonomes]
- Problème de chariot, différentes versions, avec une courte discussion (10 min)
- Les lois de la robotique d’Isaac Asimov (5 min)
- Évaluation d’une action basée sur l’éthique du devoir (5 min)
Moments interactifs
Il y a plusieurs moments interactifs (par exemple, de courtes discussions) avec les étudiants:
- Valeurs: Les questions qui pourraient être posées sont les suivantes:
- Quelles valeurs sont particulièrement importantes pour vous?
- Quelles contradictions voyez-vous en ce qui concerne les valeurs, avez-vous des exemples dans lesquels ces contradictions se produisent?
- Éthique des devoirs/obligations — Les questions qui pourraient être posées sont les suivantes:
- Quels sont les problèmes possibles avec l’éthique du devoir dans la pratique?
- Feriez-vous toujours la bonne chose, même si cela produit un mauvais résultat?
- Pouvez-vous donner des exemples des utilisations de l’impératif catégorique dans la vie quotidienne?
- Relation éthique de devoir avec l’IA: Les questions qui pourraient être posées sont les suivantes:
- Pensez-vous que nous pourrions utiliser un modèle moral déontologique pour fournir un cadre moral à l’IA?
- Pensez-vous que l’impératif catégorique est applicable à l’IA?
- Voudriez-vous conduire une voiture sans conducteur qui s’écarte pour sauver les piétons, même au détriment des passagers?
Remerciements
Le programme de master IA centré sur l’humain a été cofinancé par le mécanisme pour l’interconnexion en Europe de l’Union européenne dans le cadre de la subvention CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.