Adminisztratív információk
Cím | Tagság és attribútum Inference Attacks a gépi tanulási modellek |
Időtartam | 90 perc |
Modul | B |
Lecke típusa | Praktikus |
Fókusz | Etikus – megbízható mesterséges intelligencia |
Téma | Adatvédelmi támadások a gépi tanulásban |
Kulcsszó
Auditálás, Gépi tanulás adatvédeleme, Tagsági következtetés teszt, Attribute inference teszt,
Tanulási célok
- A gépi tanulás adatvédelmi (és titoktartási) garanciáinak ellenőrzésével kapcsolatos gyakorlati készségek fejlesztése
- Hogyan alkalmazzunk tagsági támadásokat és attribútum-inferencia támadásokat az ML adatvédelmi auditjához?
Várható előkészítés
Az előtt befejezendő tanulási események
- Előadás: Adatvédelem és gépi tanulás
- Előadás: Bevezetés a magánéletbe és a kockázatokba
- Előadás: Modellértékelés
- Előadás: Következtetés és jóslás
- Előadás: Modellszerelvény és optimalizálás
- Gyakorlati: Modellszerelvény és optimalizálás
- Előadás: Adatelőkészítés és -feltárás
- Gyakorlati: Adatelőkészítés és -feltárás
- Előadás: Neurális hálózatok
- Előadás: Adatvédelem
Kötelező a diákok számára
- Python
- Scikit
- Pandák
- MŰVÉSZET
- virtuális-env
- Tagsági támadások
- Attribútum-következtetés
- Modellértékelés
Választható diákok számára
Egy sem.
Referenciák és háttér a diákok számára
- Az adatvédelem áttekintése a gépi tanulásban
- Adatvédelem és megbízható gépi tanulás
- Tagsági következtetések a gépi tanulási modellek ellen
- A mélytanulás átfogó adatvédelmi elemzése: Passzív és aktív fehér dobozos támadások a központosított és föderált tanulás ellen
- Képzési adatok kinyerése nagy nyelvi modellekből
- Gépi tanulás tagsági titoktartással kontradiktórius rendezéssel
- A titkos osztó: Nem szándékolt memorizáció értékelése és tesztelése neurális hálózatokban
Ajánlott tanároknak
Utasítások tanároknak
Ez a laboratóriumi gyakorlat célja a diákok gyakorlati készségeinek fejlesztése a gépi tanulási modellek adatvédelmi garanciáinak ellenőrzésében. A hallgatóknak meg kell érteniük, hogy a tagsági támadások feltételezik a célminta ismereteit, amelyeket tesztelni kell, ami nem mindig megvalósítható. A tagsági következtetések sikere azonban a jövőben komolyabb adatvédelmi szivárgásokra számíthat.
A gépi tanulási modelleket gyakran bizalmas (vagy személyes, érzékeny) adatokra tanítják. Például egy ilyen modell megjósolhatja az egyén fizetését más jellemzőiből (például oktatásból, lakóhelyből, fajból, szexből stb.). Általános tévhit, hogy az ilyen modellek akkor sem tekinthetők személyes adatnak, ha képzési adataik személyesek (a képzési adatok magánszemélyekről szóló nyilvántartások gyűjtése is lehet), mivel az érzékeny képzési adatokból (pl. neurális hálózatokban lévő gradiensek átlaga, entrópia/címkék véletlenszerű erdőkben) származó összesített információkból számítják ki őket. Ennek a laboratóriumi ülésnek az a célja, hogy bemutassa, hogy a gépi tanulási modellek személyes adatnak tekinthetők, ezért feldolgozásukat sok országban (pl. Európában a GDPR) nagy valószínűséggel szabályozzák. A diákok adatvédelmi támadásokat terveznek, hogy teszteljék, hogy a képzett modellek információkat szivárognak-e ki a képzési adatokról, és enyhítik-e ezeket a támadásokat. Például a tagsági következtetési támadások célja egy adott minta jelenlétének kimutatása a célmodell képzési adataiban a modellekből és/vagy annak kimenetéből. A White-box támadások elérhetik mind a képzett modelleket (beleértve annak paramétereit), mind a modell kimenetét (azaz előrejelzéseit), míg a fekete dobozos modellek csak egy adott minta esetében férhetnek hozzá a modell előrejelzéseihez. Az attribútum-következtetési támadások célja egy hiányzó érzékeny attribútum előrejelzése a gépi tanulási modell kimenetéből, amelyre képzett, valamint az összes többi attribútumot.
Egy nyomon követő tanulási esemény e fenyegetések enyhítéséről szól: Gyakorlati: Magánélet-megőrzési technikák alkalmazása és értékelése
Vázlat
Ebben a laboratóriumi ülésen méri az MI-modellek adatvédelmi kockázatait, és enyhíti a támadásokat. Különösen a diákok
- gépi tanulási modell (Random Forest) képzése a Felnőtt adatkészleten az adatkészlet bináris jövedelem attribútumának előrejelzéséhez
- mérje az adatvédelmi kockázatokat azáltal, hogy tagsági támadást indít a képzett modell ellen, hogy ellenőrizze, hogy a képzési adatokban csak a modell előrejelzése alapján észlelhető-e az egyén jelenléte (fekete dobozos támadás)
- indítsd el az attribútum következtetési támadását a kiképzett modellen, hogy ellenőrizd, hogy a hiányzó (érzékeny) attribútum levezethető-e az eredeti adatokhoz és a képzett modell kimenetéhez hasonló kiegészítő adatokból (fekete doboz támadás)
A diákok két csoportból álló csoportokat alkotnak, és csapatként dolgoznak. Egy csoportnak csak egy dokumentációt/megoldást kell benyújtania.
Visszaigazolások
A Human-Centered AI Masters programot az Európai Unió Európai Hálózatfinanszírozási Eszköze (CEF-TC-2020–1 Digitális készségek 2020 EU-IA-0068) társfinanszírozta.