[ez az oldal a wikiben][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Gyakorlati: A magánélet és az adatvédelem ellenőrzési keretrendszerei

Adminisztratív információk

Cím Tagság és attribútum Inference Attacks a gépi tanulási modellek
Időtartam 90 perc
Modul B
Lecke típusa Praktikus
Fókusz Etikus – megbízható mesterséges intelligencia
Téma Adatvédelmi támadások a gépi tanulásban

Kulcsszó

Auditálás, Gépi tanulás adatvédeleme, Tagsági következtetés teszt, Attribute inference teszt,

Tanulási célok

Várható előkészítés

Kötelező a diákok számára

  • Python
  • Scikit
  • Pandák
  • MŰVÉSZET
  • virtuális-env
  • Tagsági támadások
  • Attribútum-következtetés
  • Modellértékelés

Választható diákok számára

Egy sem.

Leckeanyagok

Utasítások tanároknak

Ez a laboratóriumi gyakorlat célja a diákok gyakorlati készségeinek fejlesztése a gépi tanulási modellek adatvédelmi garanciáinak ellenőrzésében. A hallgatóknak meg kell érteniük, hogy a tagsági támadások feltételezik a célminta ismereteit, amelyeket tesztelni kell, ami nem mindig megvalósítható. A tagsági következtetések sikere azonban a jövőben komolyabb adatvédelmi szivárgásokra számíthat.

A gépi tanulási modelleket gyakran bizalmas (vagy személyes, érzékeny) adatokra tanítják. Például egy ilyen modell megjósolhatja az egyén fizetését más jellemzőiből (például oktatásból, lakóhelyből, fajból, szexből stb.). Általános tévhit, hogy az ilyen modellek akkor sem tekinthetők személyes adatnak, ha képzési adataik személyesek (a képzési adatok magánszemélyekről szóló nyilvántartások gyűjtése is lehet), mivel az érzékeny képzési adatokból (pl. neurális hálózatokban lévő gradiensek átlaga, entrópia/címkék véletlenszerű erdőkben) származó összesített információkból számítják ki őket. Ennek a laboratóriumi ülésnek az a célja, hogy bemutassa, hogy a gépi tanulási modellek személyes adatnak tekinthetők, ezért feldolgozásukat sok országban (pl. Európában a GDPR) nagy valószínűséggel szabályozzák. A diákok adatvédelmi támadásokat terveznek, hogy teszteljék, hogy a képzett modellek információkat szivárognak-e ki a képzési adatokról, és enyhítik-e ezeket a támadásokat. Például a tagsági következtetési támadások célja egy adott minta jelenlétének kimutatása a célmodell képzési adataiban a modellekből és/vagy annak kimenetéből. A White-box támadások elérhetik mind a képzett modelleket (beleértve annak paramétereit), mind a modell kimenetét (azaz előrejelzéseit), míg a fekete dobozos modellek csak egy adott minta esetében férhetnek hozzá a modell előrejelzéseihez. Az attribútum-következtetési támadások célja egy hiányzó érzékeny attribútum előrejelzése a gépi tanulási modell kimenetéből, amelyre képzett, valamint az összes többi attribútumot.

Egy nyomon követő tanulási esemény e fenyegetések enyhítéséről szól: Gyakorlati: Magánélet-megőrzési technikák alkalmazása és értékelése

Vázlat

Ebben a laboratóriumi ülésen méri az MI-modellek adatvédelmi kockázatait, és enyhíti a támadásokat. Különösen a diákok

  1. gépi tanulási modell (Random Forest) képzése a Felnőtt adatkészleten az adatkészlet bináris jövedelem attribútumának előrejelzéséhez
  2. mérje az adatvédelmi kockázatokat azáltal, hogy tagsági támadást indít a képzett modell ellen, hogy ellenőrizze, hogy a képzési adatokban csak a modell előrejelzése alapján észlelhető-e az egyén jelenléte (fekete dobozos támadás)
  3. indítsd el az attribútum következtetési támadását a kiképzett modellen, hogy ellenőrizd, hogy a hiányzó (érzékeny) attribútum levezethető-e az eredeti adatokhoz és a képzett modell kimenetéhez hasonló kiegészítő adatokból (fekete doboz támadás)

A diákok két csoportból álló csoportokat alkotnak, és csapatként dolgoznak. Egy csoportnak csak egy dokumentációt/megoldást kell benyújtania.

Visszaigazolások

A Human-Centered AI Masters programot az Európai Unió Európai Hálózatfinanszírozási Eszköze (CEF-TC-2020–1 Digitális készségek 2020 EU-IA-0068) társfinanszírozta.