Administrativ information
| Titel | Etik i beslutsstödssystem | 
| Varaktighet | 60 | 
| Modul | A | 
| Typ av lektion | Föreläsning | 
| Fokus | Etik – Etik Grundläggande | 
| Ämne | Etik i beslutsstödssystem | 
Nyckelord
Beslutsstöd Sytems, delad byrå, automation bias,
Lärandemål
- Förklara beslutsstödssystem med exempel på medicinska beslutsstödsystem
- Använd de mycket fina figurerna från Braun et.al.
Förväntad förberedelse
Lärande händelser som ska slutföras innan
Obligatoriskt för studenter
Valfritt för studenter
- Spaulding, Norman. ”Är mänsklig dom nödvändig?” Oxford Handbook of Ethics of AI (2020): 375.
Referenser och bakgrund för studenter
- EJ TILLÄMPLIGT
Rekommenderas för lärare
- Alon-Barkat, S., & Busuioc, M. (2022). Interaktioner mellan människa och AI i den offentliga sektorns beslutsfattande: ”Automation Bias” och ”Selective Adherence” till algoritmisk rådgivning. Journal of Public Administration Research and Theory. [1]
Lektionsmaterial
Instruktioner för lärare
Som inledning
- Införa beslutsstödssystem. Använd exemplet med de medicinska beslutsstödsystemen, eftersom dessa är standardexemplet, plus att utdelningen handlar om dem.
- Introducera idén om en DSS att den medicinska läkaren är *obligatorisk* att konsultera. Ha en diskussion om detta.
Efter en inledande diskussion, introducera tre problem i dokumentet diskuterar:
- Tillförlitlighetsvillkor – du kan hänvisa till EU:s högnivågrupps rekommendation
- Förklarbarhet och transparens (här förebådar materialet från modul C)
- Delad byrå
- Slutsats
Extra ämnen om tiden tillåter:
- Automation bias för en MD
- Datasuveränitet (se dokumentet)
Konturer
| Varaktighet (min) | Beskrivning | 
|---|---|
| 15 | Introduktion till DSS | 
| 20 | Diskussion om idén om DSS | 
| 5 | Villkor för tillit | 
| 5 | Förklarbarhet och öppenhet | 
| 10 | Delad byrå | 
| 5 | Slutsats | 
Erkännanden
EJ TILLÄMPLIGT
Masterprogrammet Human-Centered AI har samfinansierats av Fonden för ett sammanlänkat Europa i Europeiska unionen inom ramen för Grant CEF-TC-2020–1 Digital Skills 2020 EU-IA-0068.
