[questa pagina su wiki][indice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Sessione interattiva: Etica del dovere

Informazioni amministrative

Titolo Etica del dovere — Dibattito
Durata 55
Modulo A
Tipo di lezione Sessione interattiva
Focus Etica — Fondamenti etici
Argomento Etica delle auto a guida autonoma

Parole chiave

Etica del dovere, auto a guida autonoma, compromesso morale,

Obiettivi di apprendimento

Preparazione prevista

Eventi di apprendimento da completare prima

Obbligatorio per gli studenti

  • Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, F. & Rahwan, I. (2018). L'esperimento della macchina morale. Natura, 563(7729), 59-64. [1]
  • Etica del dovere — Kant: Scuola di vita — Kant e imperativi categorici: Crash Course Filosofia#35.

Facoltativo per gli studenti

  • Alexander, Larry e Michael Moore "Deontological Ethics" sulla Stanford Encyclopedia of Philosophy, Stanford University, 21 novembre 2007. [2]
  • Panza, C., & Potthast, A. (2010). Etica per i manichini. Casale sul Sile & Sons.

Referenze e background per gli studenti

Nessuno.

Consigliato per gli insegnanti

  • Qualsiasi documento che esplora l'etica dietro le auto a guida autonoma
  • Pagina del progetto Moral Machine
  • Greene, J. D. (2016). Il nostro dilemma senza conducente. Scienza, 352(6293), 1514-1515. [3]

Materiale didattico

Istruzioni per gli insegnanti

Gli studenti dovrebbero formare un gruppo di 3-4 e cercare di discutere di uno scenario falso, cercando di stressare positivi e fallimenti nella progettazione di un veicolo a guida autonoma seguendo i principi etici del dovere da diversi punti di vista (ad esempio passeggero, pedone). Dovresti provare ad aiutarli a rispondere a diverse domande riguardanti questo argomento, ad esempio:

Cosa ne pensi?

È importante avere un dibattito accanto a una discussione guidata.

Alla fine, puoi aiutare i tuoi studenti con un esercizio finale. Utilizzando la piattaforma della macchina morale, gli studenti dovranno affrontare dilemmi morali, dove un'auto senza conducente deve scegliere il minore tra due mali in uno scenario di collisione inevitabile. In qualità di osservatore esterno, i due gruppi giudicheranno quale risultato sia più accettabile e affronteranno i loro risultati.

Argomenti da coprire

Riconoscimenti

Il programma Human-Centered AI Masters è stato co-finanziato dal meccanismo per collegare l'Europa dell'Unione europea nell'ambito della sovvenzione CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.