Administrative oplysninger
Titel | Risiko- og risikoreduktion i praksis |
Varighed | 60 min. |
Modul | B |
Lektionstype | Praktisk |
Fokus | Etisk — pålidelig kunstig intelligens |
Emne | Risiko |
Nøgleord
Risiko, risikoafbødning,
Læringsmål
- Læreren får praktisk erfaring med risikorammer
- Læreren får praktisk erfaring med relevante standarder.
Forventet forberedelse
Læringsbegivenheder, der skal fuldføres før
Obligatorisk for studerende
- Risikobegreber og afbødning heraf
Valgfrit for studerende
Ingen.
Referencer og baggrund for studerende
Ingen.
Anbefalet til lærerne
- Læs selv udkastet til standard
Undervisningsmaterialer
- Lov om kunstig intelligens (lovgivning, der ikke er udviklet af HCAIM-konsortiet)
- IEEE 7000-2021 Standard (standarder, der ikke er udviklet af HCAIM-konsortiet)
Instruktioner til lærerne
- Denne aktivitet er baseret på IEEE 7000-2021 standardmodelprocessen for håndtering af etiske bekymringer under systemdesign.
- Denne standard forventes at blive godkendt af EU's AI-retsakt med særlig tilpasning
Denne standard kommer med en risikobaseret tilgang
- For hvert hold på 4-6 studerende skal du angive et imaginært AI-system, som eleverne skal udvikle. *Ideen her er at give hver gruppe noget med en anden (i henhold til EU's AI-retsakts risikokategorier). Eksempler:
- overvågning med ansigtsgenkendelse for en lufthavn (hint: dette er forbudt undtagen i meget veldefinerede tilfælde)
- automatiseret essay grading system (hint: sandsynligvis højrisiko, menneskelig overshight nødvendig)
- anbefalingssystem for tv-serier (lav risiko, men der er bestemmelser for børn)
- chat bot AI i spillet for en MMORPG (lav risiko)
- Få dem til at læse kapitlet om risikokategorisering i retsakten om kunstig intelligens (afsnit II og afsnit III)
Vejledning til undervisere
- Denne aktivitet er baseret på IEEE 7000-2021 standardmodelprocessen for håndtering af etiske bekymringer under systemdesign.
- Denne standard forventes at blive godkendt af EU's AI-retsakt med særlig tilpasning
- Denne standard kommer med en risikobaseret tilgang
- For hvert hold på 4-6 studerende skal du angive et imaginært AI-system, som eleverne skal udvikle. Ideen her er at give hver gruppe noget med en anden (i henhold til EU's AI-retsakt risikokategorier). Eksempler:
- overvågning med ansigtsgenkendelse for en lufthavn (hint: dette er forbudt undtagen i meget veldefinerede tilfælde)
- automatiseret essay grading system (hint: sandsynligvis højrisiko, menneskelig overshight nødvendig)
- anbefalingssystem for tv-serier (lav risiko, men der er bestemmelser for børn)
- chat bot AI i spillet for en MMORPG (lav risiko)
- Få dem til at læse kapitlet om risikokategorisering i retsakten om kunstig intelligens (afsnit II og afsnit III)
Anerkendelser
Programmet Human-Centered AI Masters blev samfinansieret af Connecting Europe-faciliteten i Den Europæiske Union under tilskud CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.