Informacje administracyjne
Tytuł | Ograniczenie ryzyka i ryzyka w praktyce |
Czas trwania | 60 minut |
Moduł | B |
Rodzaj lekcji | Praktyczne |
Skupienie | Etyczne – godne zaufania AI |
Temat | Ryzyko |
Słowa kluczowe
Ryzyko, łagodzenie ryzyka,
Cele w zakresie uczenia się
- Osoba ucząca się zdobywa praktyczne doświadczenie z ramami ryzyka
- Uczeń zdobywa praktyczne doświadczenie z odpowiednimi standardami.
Oczekiwane przygotowanie
Wydarzenia edukacyjne, które należy ukończyć przed
Obowiązkowe dla studentów
- Pojęcia ryzyka i ich ograniczania
Opcjonalne dla studentów
Brak.
Referencje i tło dla studentów
Brak.
Zalecane dla nauczycieli
- Przeczytaj sam projekt standardu
Materiały do lekcji
- Ustawa o sztucznej inteligencji (ustawodawstwo nieopracowane przez konsorcjum HCAIM)
- Standard IEEE 7000– 2021 (normy nieopracowane przez konsorcjum HCAIM)
Instrukcje dla nauczycieli
- Działanie to opiera się na standardowym procesie modelowym IEEE 7000-2021 do rozwiązywania problemów etycznych podczas projektowania systemu.
- Oczekuje się, że norma ta zostanie zatwierdzona przez unijny akt w sprawie sztucznej inteligencji ze szczególnym dostosowaniem
Norma ta opiera się na podejściu opartym na analizie ryzyka.
- Dla każdego zespołu 4-6 uczniów, określ wyimaginowany system sztucznej inteligencji, który uczniowie muszą opracować. *Zamysłem jest zapewnienie każdej grupie czegoś innego (zgodnie z kategoriami ryzyka unijnego aktu w sprawie sztucznej inteligencji). Przykłady:
- nadzór z rozpoznawaniem twarzy dla lotniska (podpowiedź: jest to zabronione, z wyjątkiem bardzo dobrze zdefiniowanych przypadków)
- automatyczny system klasyfikacji esejów (podpowiedź: prawdopodobnie potrzebny jest wysoki poziom ryzyka, ludzka przewaga)
- system rekomendacji dla seriali telewizyjnych (niskie ryzyko, ale istnieją rezerwy dla dzieci)
- w grze chat bot AI dla MMORPG (niskie ryzyko)
- Czy zapoznają się z rozdziałem dotyczącym kategoryzacji ryzyka w ustawie o sztucznej inteligencji (tytuł II i tytuł III)
Przewodnik dla wykładowców
- Działanie to opiera się na standardowym procesie modelowym IEEE 7000-2021 do rozwiązywania problemów etycznych podczas projektowania systemu.
- Oczekuje się, że norma ta zostanie zatwierdzona przez unijny akt w sprawie sztucznej inteligencji ze szczególnym dostosowaniem
- Norma ta opiera się na podejściu opartym na analizie ryzyka.
- Dla każdego zespołu 4-6 uczniów, określ wyimaginowany system sztucznej inteligencji, który uczniowie muszą opracować. Chodzi o to, aby każdej grupie dać coś innego (zgodnie z kategoriami ryzyka unijnego aktu w sprawie sztucznej inteligencji). Przykłady:
- nadzór z rozpoznawaniem twarzy dla lotniska (podpowiedź: jest to zabronione, z wyjątkiem bardzo dobrze zdefiniowanych przypadków)
- automatyczny system klasyfikacji esejów (podpowiedź: prawdopodobnie potrzebny jest wysoki poziom ryzyka, ludzka przewaga)
- system rekomendacji dla seriali telewizyjnych (niskie ryzyko, ale istnieją rezerwy dla dzieci)
- w grze chat bot AI dla MMORPG (niskie ryzyko)
- Czy zapoznają się z rozdziałem dotyczącym kategoryzacji ryzyka w ustawie o sztucznej inteligencji (tytuł II i tytuł III)
Potwierdzenia
Program Masters zorientowany na człowieka został współfinansowany przez instrument „Łącząc Europę” Unii Europejskiej w ramach grantu CEF-TC-2020-1 Umiejętności cyfrowe 2020-EU-IA-0068.