Administrativní informace
Název | Snižování rizik a rizik v praxi |
Trvání | 60 minut |
Modul | B |
Typ lekce | Praktické |
Soustředění | Etika – důvěryhodná umělá inteligence |
Téma | Riziko |
Klíčová slova
Riziko, zmírnění rizik,
Vzdělávací cíle
- Student získá praktické zkušenosti s rámcem rizik
- Student získá praktické zkušenosti s příslušnými standardy.
Očekávaná příprava
Vzdělávací akce, které mají být dokončeny před
Povinné pro studenty
- Koncepce rizik a jejich zmírňování
Volitelné pro studenty
Žádné.
Reference a zázemí pro studenty
Žádné.
Doporučeno pro učitele
- Přečtěte si návrh standardu sami
Materiály pro výuku
- Zákon o umělé inteligenci (právní předpisy nevypracované konsorciem HCAIM)
- Norma IEEE 7000а- 2021 (normy nevypracované konsorciem HCAIM)
Pokyny pro učitele
- Tato činnost je založena na standardizovaném modelu IEEE 7000–2021 pro řešení etických problémů během návrhu systému.
- Očekává se, že tato norma bude schválena aktem EU o umělé inteligenci se specifickým přizpůsobením.
Tato norma přichází s přístupem založeným na posouzení rizik.
- Pro každý tým 4–6 studentů specifikujte imaginární systém UI, který studenti potřebují vyvinout. *Konceptem je dát každé skupině něco jiného (podle kategorií rizik podle aktu EU o umělé inteligenci). Příklady:
- dohled s rozpoznáváním obličeje na letišti (poznámka: to je zakázáno s výjimkou velmi dobře definovaných případů)
- automatizovaný systém třídění esejů (int: pravděpodobně vysoce rizikové, lidské přehlížení potřeba)
- systém doporučení pro televizní seriály (nízké riziko, ale existují ustanovení pro děti)
- in-game chat bot AI pro MMORPG (nízké riziko)
- Aby si přečetli kapitolu o kategorizaci rizik zákona o umělé inteligenci (hlava II a hlava III)
Průvodce lektorem
- Tato činnost je založena na standardizovaném modelu IEEE 7000–2021 pro řešení etických problémů během návrhu systému.
- Očekává se, že tato norma bude schválena aktem EU o umělé inteligenci se specifickým přizpůsobením.
- Tato norma přichází s přístupem založeným na posouzení rizik.
- Pro každý tým 4–6 studentů specifikujte imaginární systém UI, který studenti potřebují vyvinout. Cílem je dát každé skupině něco jiného (podle kategorií rizik podle aktu EU o umělé inteligenci). Příklady:
- dohled s rozpoznáváním obličeje na letišti (poznámka: to je zakázáno s výjimkou velmi dobře definovaných případů)
- automatizovaný systém třídění esejů (int: pravděpodobně vysoce rizikové, lidské přehlížení potřeba)
- systém doporučení pro televizní seriály (nízké riziko, ale existují ustanovení pro děti)
- in-game chat bot AI pro MMORPG (nízké riziko)
- Aby si přečetli kapitolu o kategorizaci rizik zákona o umělé inteligenci (hlava II a hlava III)
Potvrzení
Program Human-Centered AI Masters byl spolufinancován Nástrojem Evropské unie pro propojení Evropy v rámci grantu CEF-TC-2020–1 Digitální dovednosti 2020-EU-IA-0068.