Administrativní informace
Název | Etika systémů na podporu rozhodování |
Trvání | 60 |
Modul | A |
Typ lekce | Přednáška |
Soustředění | Etika – Základy etiky |
Téma | Etika systémů na podporu rozhodování |
Klíčová slova
Podpora rozhodnutí Sytems, sdílená agentura, automatizační předpojatost,
Vzdělávací cíle
- Vysvětlit systémy podpory rozhodování s příkladem zdravotnických systémů podpory rozhodování
- Použijte velmi pěkné postavy od Braun et.al.
Očekávaná příprava
Vzdělávací akce, které mají být dokončeny před
Povinné pro studenty
Volitelné pro studenty
- Spaulding, Normane. „Je lidský soud nezbytný?.“ Oxfordská příručka etiky umělé inteligence (2020): 375.
Reference a zázemí pro studenty
- N/A
Doporučeno pro učitele
- Alon-Barkat, S., & Busuioc, M. (2022). Interakce člověka s umělou inteligencí při rozhodování veřejného sektoru: „Automatizační předpojatost“ a „Seleective Adherence“ k algoritmickému poradenství. Journal of Public Administration Research and Theory (výzkum a teorie veřejné správy). [1]
Materiály pro výuku
Pokyny pro učitele
Jako úvod
- Zavést systémy podpory rozhodování. Použijte příklad lékařských systémů podpory rozhodování, protože tyto jsou standardním příkladem, plus rozdávání je o nich.
- Představit myšlenku DSS, že lékař je *mandated* konzultovat. Diskutujte o tom.
Po úvodním kole diskuse představujeme tři problémy, které dokument diskutuje:
- Podmínky důvěryhodnosti – můžete se odkázat na doporučení skupiny EU na vysoké úrovni
- Vysvětlitelnost a transparentnost (zde předstihuje materiál z modulu C)
- Sdílená agentura
- Závěr
Další témata, pokud čas dovolí:
- Automatizační předpojatost pro MD
- Suverenita dat (viz v článku)
Obrys
Doba trvání (Min) | Popis |
---|---|
15 | Úvod do DSS |
20 | Diskuse o myšlence DSS |
5 | Podmínky důvěryhodnosti |
5 | Vysvětlitelnost a transparentnost |
10 | Sdílená agentura |
5 | Závěr |
Potvrzení
N/A
Program Human-Centered AI Masters byl spolufinancován Nástrojem Evropské unie pro propojení Evropy v rámci grantu CEF-TC-2020–1 Digitální dovednosti 2020-EU-IA-0068.