Administrativ information
Titel | Risk- och riskreducering i praktiken |
Varaktighet | 60 minuter |
Modul | B |
Typ av lektion | Praktiskt |
Fokus | Etiskt – tillförlitlig AI |
Ämne | Risk |
Nyckelord
Risk, riskreducering,
Lärandemål
- Eleven får praktisk erfarenhet av riskramverk
- Eleven får praktisk erfarenhet av relevanta standarder.
Förväntad förberedelse
Lärande händelser som ska slutföras innan
Obligatoriskt för studenter
- Riskbegrepp och riskreducering
Valfritt för studenter
Ingen.
Referenser och bakgrund för studenter
Ingen.
Rekommenderas för lärare
- Läs utkastet till standard själv
Lektionsmaterial
- Lagen om artificiell intelligens (lagstiftning som inte utvecklats av HCAIM-konsortiet)
- IEEE 7000–2021 Standard (standarder som inte utvecklats av HCAIM-konsortiet)
Instruktioner för lärare
- Denna verksamhet är baserad på IEEE 7000–2021 Standard Model Process for Addressing Ethical Concerns under System Design.
- Denna standard förväntas godkännas genom EU:s AI-akt med särskild anpassning
Denna standard kommer med en riskbaserad metod
- För varje team av 4–6 studenter, ange ett imaginärt AI-system som eleverna behöver utveckla. *Idén här är att ge varje grupp något annat (enligt EU:s AI Act-riskkategorier). Exempel:
- övervakning med ansiktsigenkänning för en flygplats (hint: detta är förbjudet utom i mycket väldefinierade fall)
- automatiserat essä betygssystem (hint: förmodligen högrisk, mänsklig överdrift behövs)
- rekommendationssystem för TV-serier (låg risk, men det finns avsättningar för barn)
- in-game chat bot AI för en MMORPG (låg risk)
- Få dem att läsa kapitlet om riskkategorisering i AI-akten (avdelning II och avdelning III)
Lärarhandledning
- Denna verksamhet är baserad på IEEE 7000–2021 Standard Model Process for Addressing Ethical Concerns under System Design.
- Denna standard förväntas godkännas genom EU:s AI-akt med särskild anpassning
- Denna standard kommer med en riskbaserad metod
- För varje team av 4–6 studenter, ange ett imaginärt AI-system som eleverna behöver utveckla. Tanken här är att ge varje grupp något annat (enligt EU:s AI Act-riskkategorier). Exempel:
- övervakning med ansiktsigenkänning för en flygplats (hint: detta är förbjudet utom i mycket väldefinierade fall)
- automatiserat essä betygssystem (hint: förmodligen högrisk, mänsklig överdrift behövs)
- rekommendationssystem för TV-serier (låg risk, men det finns avsättningar för barn)
- in-game chat bot AI för en MMORPG (låg risk)
- Få dem att läsa kapitlet om riskkategorisering i AI-akten (avdelning II och avdelning III)
Erkännanden
Masterprogrammet Human-Centered AI har samfinansierats av Fonden för ett sammanlänkat Europa i Europeiska unionen inom ramen för Grant CEF-TC-2020–1 Digital Skills 2020 EU-IA-0068.