[această pagină pe wiki][indice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Practică: Aplicarea și evaluarea tehnicilor de conservare a vieții private

Informații administrative

Titlu Apărarea împotriva calității de membru și atribuirea atacurilor de inferență în modelele de învățare automată
Durată 90 min
Modulul B
Tipul lecției Practică
Focalizare Etică – IA demnă de încredere
Subiect Atacuri de confidențialitate asupra învățării automate, contramăsuri

Cuvinte cheie

Confidențialitatea învățării automate, atenuarea, anonimizarea, confidențialitatea diferențială, formarea privată diferențiată, pădurea aleatorie,

Obiective de învățare

Pregătirea preconizată

Obligatoriu pentru studenți

  • Python
  • Scikit
  • Urși panda
  • ARTĂ
  • Smartnoise-SDK
  • virtual-env
  • Atacurile membrilor
  • Inferența atributului
  • Confidențialitate diferențială
  • Evaluarea modelului

Opțional pentru studenți

Nici unul.

Materiale de lecție

Instrucțiuni pentru profesori

Acest exercițiu de laborator este o continuare a practicii: Cadre de audit privind confidențialitatea și protecția datelor,în care sunt dezvoltate atacuri de confidențialitate împotriva modelelor ML, în timp ce acest eveniment de învățare actual se referă la atenuarea acestor atacuri.

Modelele de învățare automată sunt adesea instruite cu privire la datele confidențiale (sau personale, sensibile). De exemplu, un astfel de model poate prezice salariul unui individ din alte atribute ale sale (cum ar fi educația, locul de locuit, rasa, sexul etc.). O concepție greșită comună este că astfel de modele nu sunt considerate date cu caracter personal, chiar dacă datele lor de antrenament sunt personale (de fapt, datele de formare pot fi colectarea de înregistrări despre persoane fizice), deoarece sunt calculate pe baza informațiilor agregate derivate din datele sensibile de antrenament (de exemplu, media gradinților din rețelele neuronale sau entropia/numărul de etichete din pădurile aleatorii). Scopul acestei sesiuni de laborator este de a demonstra că modelele de învățare automată pot fi considerate date cu caracter personal și, prin urmare, este foarte probabil ca prelucrarea acestora să fie reglementată în multe țări (de exemplu, prin RGPD în Europa). Elevii vor proiecta atacuri de confidențialitate pentru a testa dacă modelele instruite scurg informații despre datele sale de antrenament și, de asemenea, vor atenua aceste atacuri. De exemplu, atacurile de deducție a membrilor au scopul de a detecta prezența unui anumit eșantion în datele de antrenament ale unui model țintă din modele și/sau din rezultatele acestuia. Atacurile cu cutie albă pot accesa atât modelele instruite (inclusiv parametrii săi), cât și rezultatele modelului (adică predicțiile sale), în timp ce modelele black-box pot accesa doar predicțiile modelului pentru un anumit eșantion. Atacurile de deducție a atributelor au scopul de a prezice un atribut sensibil care lipsește din rezultatul modelului de învățare automată care este antrenat, precum și toate celelalte atribute.

Profesorilor li se recomandă să sublinieze compromisul dintre protecția vieții private și calitatea modelului/acuratetea datelor în general. Dacă este necesar, exerciții suplimentare pot fi integrate în programa pentru a demonstra acest lucru (evaluarea calității modelului în funcție de epsilon și delta).

Contur

În această sesiune de laborator, veți atenua riscurile de confidențialitate modele AI fin. În mod specific, elevii vor dezvolta două tehnici de atenuare:

  1. Apărarea 1: generați date sintetice cu garanțiile de confidențialitate diferențială și verificați
    • cât de mult calitatea modelului se degradează dacă datele sintetice care păstrează confidențialitatea sunt utilizate pentru a antrena modelul în locul datelor originale (în funcție de parametrul de confidențialitate epsilon)
    • dacă instruirea cu privire la datele sintetice în loc de cele originale împiedică atacul de apartenență și atribut
  2. Apărarea 2: instruiți modelul cu garanții de confidențialitate diferențiate și verificați
    • cât de mult calitatea modelului se degradează dacă modelul de conservare a confidențialității este folosit în locul modelului original pentru predicție (în funcție de parametrul de confidențialitate epsilon)
    • dacă modelul de păstrare a confidențialității împiedică atacul de membru
    • cum se schimbă acuratețea modelului de protecție a vieții private în comparație cu Apărarea 1

Elevii vor forma grupuri de câte doi și vor lucra ca o echipă. Un grup trebuie să furnizeze o singură documentație/soluție.

Confirmări

Programul de masterat AI centrat pe om a fost cofinantat de Mecanismul pentru interconectarea Europei al Uniunii Europene sub Grantul CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.