Informacje administracyjne
Tytuł | Perspektywy na prywatność |
Czas trwania | 60 minut |
Moduł | B |
Rodzaj lekcji | Sesja interaktywna |
Skupienie | Etyczne – godne zaufania AI |
Temat | Prywatność |
Słowa kluczowe
Prywatność, prywatność w sztucznej inteligencji, ryzyko AI, zarządzanie ryzykiem, zarządzanie odpornością, wyjaśnialna sztuczna inteligencja, interpretowalna sztuczna inteligencja, bezpieczeństwo, odporność, przejrzystość, odpowiedzialność, zarządzanie ryzykiem specyficznym dla branży,
Cele w zakresie uczenia się
- Zrozumieć, przeanalizować i rozwinąć znaczenie ochrony prywatności i zarządzania ryzykiem AI w różnych sektorach zastosowań.
- Rozpoznawać, badać i omawiać kluczowe zagrożenia, jakie stwarzają modele sztucznej inteligencji i uczenia maszynowego, oraz sposób, w jaki eksperci z konkretnych dziedzin i sektorów wybrali rozwiązanie tych zagrożeń.
- Jak stworzyć ramy zarządzania w organizacji, aby umożliwić zarządzanie ryzykiem związanym z sztuczną inteligencją Podsumuj i zrozumiej zasady działania, prywatność i zagrożenia, które systemy sztucznej inteligencji wprowadzają i jak je rozwiązać.
- Rozszerzenie możliwości zastosowania środków kontroli prywatności i bezpieczeństwa na każdym etapie cyklu życia sztucznej inteligencji, w oparciu o sektorowe zastosowania sztucznej inteligencji.
- Otwórz dyskusję na temat ochrony prywatności uczenia maszynowego i technik ochrony prywatności.
Oczekiwane przygotowanie
Wydarzenia edukacyjne, które należy ukończyć przed
Brak.
Obowiązkowe dla studentów
- Grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji (AI HLEG). (8 kwietnia 2019 r.). Komisja Europejska. „Wytyczne etyczne dotyczące godnej zaufania sztucznej inteligencji.
- Wykład HCAIM na temat ryzyka i ograniczania ryzyka
- Interaktywna sesja HCAIM na temat ryzyka AI i zarządzania ryzykiem
Opcjonalne dla studentów
Brak.
Referencje i tło dla studentów
- Grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji (AI HLEG). (8 kwietnia 2019 r.). Komisja Europejska. „Wytyczne etyczne dotyczące godnej zaufania sztucznej inteligencji.
- Webinarium HCAIM na temat europejskiego podejścia do niezawodnej, bezpiecznej i godnej zaufania sztucznej inteligencji (dostępne na YouTube)
- Webinarium HCAIM na temat roli bezpieczeństwa i prywatności w uczeniu maszynowym (dostępne na YouTube)
Zalecane dla nauczycieli
- Komisja Europejska: Wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji), 2021 r.
- Agencja Unii Europejskiej ds. Cyberbezpieczeństwa, Malatras, A., Dede, G., AI cyberbezpieczeństwo wyzwania: krajobraz zagrożeń dla sztucznej inteligencji, Europejska Agencja ds. Bezpieczeństwa Sieci i Informacji, 2020 r.
- Grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji (AI HLEG). (8 kwietnia 2019 r.). Komisja Europejska. „Wytyczne etyczne dotyczące godnej zaufania sztucznej inteligencji”.
- Szkodliwe użycie i nadużycia sztucznej inteligencji 2020, publikacja Europolu
Materiały do lekcji
Brak.
Instrukcje dla nauczycieli
Ta interaktywna sesja jest dyskusją gościnną na temat branżowych perspektyw na sztuczną inteligencję z sektorów takich jak sektor morski, energetyczny, opieka zdrowotna, finanse, ubezpieczenia, edukacja, reklama i zasoby ludzkie, aby wymienić tylko kilka.
Celem tej interaktywnej sesji jest zaoferowanie studentom unikalnej i odpowiedniej perspektywy na ryzyko AI, zarządzanie ryzykiem i prywatność.
Aby to osiągnąć, wykładowca może zdecydować się na przedyskutowanie konkretnych przypadków użycia ze swojej praktyki lub wprowadzenie konkretnych problemów, z którymi boryka się sektor w ogóle.
Dwa webinaria HCAIM są szczególnie istotne dla tej interaktywnej sesji. Mogą one być pokazane przed dyskusją lub ich części mogą być odtwarzane w celu ułatwienia tematów i zarządzania milczeniem.
- Webinarium HCAIM na temat europejskiego podejścia do niezawodnej, bezpiecznej i godnej zaufania sztucznej inteligencji (dostępne na YouTube)
- Webinarium HCAIM na temat roli bezpieczeństwa i prywatności w uczeniu maszynowym (dostępne na YouTube)
Zarys
Dostarczone materiały, a także ogólny zarys i harmonogram sesji interaktywnej są orientacyjne i przedstawione w celu lepszego kierowania dyskusją ze studentami. Tak długo, jak cele edukacyjne są spełnione, zaproszeni wykładowcy oraz moderatorzy/moderatorzy sesji interaktywnej są zachęcani do śledzenia naturalnego przepływu dyskusji.
Czas trwania | Temat | Opis |
---|---|---|
10 minut | Wprowadzenie | Wprowadzenie gościnnego wykładowcy, ich firmy, ich pracy i aplikacji AI w swojej firmie lub sektorze. Konkretne przypadki użycia sztucznej inteligencji są wprowadzane przez pryzmat prywatności. |
40 minut | Prywatność w AI | Podejście do kwestii prywatności w sztucznej inteligencji z wykorzystaniem przypadków zastosowań specyficznych dla danego sektora. Dyskusja. |
10 minut | Uwagi zamykające | Dyskusja ze studentami. Pytania i odpowiedzi. Wprowadzenie tematu Privacy-Preserving Machine Learning. |
Gościnni wykładowcy tworzą własne prezentacje i materiały, korzystając z szablonów dostarczonych przez konsorcjum HCAIM. W szczególności, w przypadku prezentacji, używają następującego szablonu.
Potwierdzenia
Program Masters zorientowany na człowieka został współfinansowany przez instrument „Łącząc Europę” Unii Europejskiej w ramach grantu CEF-TC-2020-1 Umiejętności cyfrowe 2020-EU-IA-0068.