[ta strona na wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Praktyczne: Ramy audytu w zakresie prywatności i ochrony danych

Informacje administracyjne

Tytuł Członkostwo i atrybuty ataków na modele uczenia maszynowego
Czas trwania 90 min
Moduł B
Rodzaj lekcji Praktyczne
Skupienie Etyczne – godne zaufania AI
Temat Ataki prywatności na uczenie maszynowe

Słowa kluczowe

Audyt, prywatność uczenia maszynowego, test wnioskowania członkostwa, test wnioskowania atrybutu,

Cele w zakresie uczenia się

Oczekiwane przygotowanie

Obowiązkowe dla studentów

  • Pythona
  • Scikit
  • Pandy
  • SZTUKA
  • wirtualna sieć
  • Ataki członkowskie
  • Wnioskowanie atrybutu
  • Ocena modelu

Opcjonalne dla studentów

Brak.

Materiały do lekcji

Instrukcje dla nauczycieli

To ćwiczenie laboratoryjne ma na celu rozwijanie praktycznych umiejętności studentów w zakresie audytu gwarancji prywatności modeli uczenia maszynowego. Studenci powinni zrozumieć, że ataki członkowskie zakładają, że wiedza o próbce docelowej zostanie przetestowana, co nie zawsze jest wykonalne. Mimo to powodzenie wniosków o członkostwo może przewidywać poważniejsze wycieki prywatności w przyszłości.

Modele uczenia maszynowego są często przeszkolone w zakresie poufnych (lub osobistych, wrażliwych) danych. Na przykład taki model może przewidzieć wynagrodzenie jednostki z innych jego atrybutów (takich jak edukacja, miejsce zamieszkania, rasa, płeć itp.). Powszechnym nieporozumieniem jest to, że takie modele nie są uważane za dane osobowe, nawet jeśli ich dane szkoleniowe są osobowe (w rzeczywistości dane szkoleniowe mogą być gromadzeniem zapisów dotyczących osób fizycznych), ponieważ są one obliczane na podstawie zagregowanych informacji pochodzących z wrażliwych danych szkoleniowych (np. średnia gradientów w sieciach neuronowych lub entropia/liczba etykiet w lasach losowych). Celem tej sesji laboratoryjnej jest pokazanie, że modele uczenia maszynowego mogą być traktowane jako dane osobowe i dlatego ich przetwarzanie jest bardzo prawdopodobne w wielu krajach (np. przez RODO w Europie). Studenci będą projektować ataki prywatności, aby przetestować, czy przeszkolone modele wyciekają informacje o swoich danych treningowych, a także łagodzą te ataki. Na przykład ataki wnioskowania o członkostwo mają na celu wykrycie obecności danej próbki w danych treningowych modelu docelowego z modeli i/lub jego wyników. Ataki White-box mają dostęp zarówno do przeszkolonych modeli (w tym jego parametrów), jak i do wyjścia modelu (tj. jego prognoz), podczas gdy modele czarnej skrzynki mają dostęp tylko do prognoz modelu dla danej próbki. Ataki wnioskowania atrybutów mają na celu przewidywanie brakującego atrybutu wrażliwego na podstawie wyników modelu uczenia maszynowego, który jest trenowany, a także wszystkich innych atrybutów.

Kolejnym wydarzeniem edukacyjnym jest złagodzenie tych zagrożeń: Praktyczne: Stosowanie i ocena technik ochrony prywatności

Zarys

Podczas tej sesji laboratoryjnej mierzysz zagrożenia prywatności modeli AI, a także łagodzisz ataki. W szczególności uczniowie będą

  1. trenuj model uczenia maszynowego (Random Forest) na zestawie danych dla dorosłych, aby przewidzieć binarny atrybut dochodu w zbiorze danych
  2. zmierzyć ryzyko związane z prywatnością, uruchamiając atak członkowski na przeszkolony model, aby sprawdzić, czy obecność jakiejkolwiek osoby w danych treningowych może zostać wykryta tylko po przewidywaniu modelu (atak w czarnej skrzynce)
  3. uruchom atak atrybutu na przeszkolonym modelu, aby sprawdzić, czy brakujący (wrażliwy) atrybut można wywnioskować z niektórych danych pomocniczych przypominających oryginalne dane i wyjście przeszkolonego modelu (atak w czarnej skrzynce)

Uczniowie będą tworzyć grupy dwuosobowe i pracować jako zespół. Jedna grupa musi przekazać tylko jedną dokumentację/rozwiązanie.

Potwierdzenia

Program Masters zorientowany na człowieka został współfinansowany przez instrument „Łącząc Europę” Unii Europejskiej w ramach grantu CEF-TC-2020-1 Umiejętności cyfrowe 2020-EU-IA-0068.