[această pagină pe wiki][indice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Practică: Cadrele de audit privind confidențialitatea și protecția datelor

Informații administrative

Titlu Calitatea de membru și Atribuirea atacurilor de inferență asupra modelelor de învățare automată
Durată 90 min
Modulul B
Tipul lecției Practică
Focalizare Etică – IA demnă de încredere
Subiect Atacuri de confidențialitate asupra învățării automate

Cuvinte cheie

Audit, confidențialitatea învățării automate, testul de deducție a membrilor, testul de inferență atributului,

Obiective de învățare

Pregătirea preconizată

Obligatoriu pentru studenți

  • Python
  • Scikit
  • Urși panda
  • ARTĂ
  • virtual-env
  • Atacurile membrilor
  • Inferența atributului
  • Evaluarea modelului

Opțional pentru studenți

Nici unul.

Materiale de lecție

Instrucțiuni pentru profesori

Acest exercițiu de laborator își propune să dezvolte abilitățile practice ale studenților de a audita garanțiile de confidențialitate ale modelelor Machine Learning. Elevii ar trebui să înțeleagă că atacurile de membru presupun cunoașterea eșantionului țintă care urmează să fie testat, ceea ce nu este întotdeauna fezabil. Cu toate acestea, succesul deferenței membrilor poate anticipa scurgeri mai grave de confidențialitate în viitor.

Modelele de învățare automată sunt adesea instruite cu privire la datele confidențiale (sau personale, sensibile). De exemplu, un astfel de model poate prezice salariul unui individ din alte atribute ale sale (cum ar fi educația, locul de locuit, rasa, sexul etc.). O concepție greșită comună este că astfel de modele nu sunt considerate date cu caracter personal, chiar dacă datele lor de antrenament sunt personale (de fapt, datele de formare pot fi colectarea de înregistrări despre persoane fizice), deoarece sunt calculate pe baza informațiilor agregate derivate din datele sensibile de antrenament (de exemplu, media gradinților din rețelele neuronale sau entropia/numărul de etichete din pădurile aleatorii). Scopul acestei sesiuni de laborator este de a demonstra că modelele de învățare automată pot fi considerate date cu caracter personal și, prin urmare, este foarte probabil ca prelucrarea acestora să fie reglementată în multe țări (de exemplu, prin RGPD în Europa). Elevii vor proiecta atacuri de confidențialitate pentru a testa dacă modelele instruite scurg informații despre datele sale de antrenament și, de asemenea, vor atenua aceste atacuri. De exemplu, atacurile de deducție a membrilor au scopul de a detecta prezența unui anumit eșantion în datele de antrenament ale unui model țintă din modele și/sau din rezultatele acestuia. Atacurile cu cutie albă pot accesa atât modelele instruite (inclusiv parametrii săi), cât și rezultatele modelului (adică predicțiile sale), în timp ce modelele black-box pot accesa doar predicțiile modelului pentru un anumit eșantion. Atacurile de deducție a atributelor au scopul de a prezice un atribut sensibil care lipsește din rezultatul modelului de învățare automată care este antrenat, precum și toate celelalte atribute.

Un eveniment de învățare ulterioară se referă la atenuarea acestor amenințări: Practică: Aplicarea și evaluarea tehnicilor de conservare a vieții private

Contur

În această sesiune de laborator, veți măsura riscurile de confidențialitate pentru modelele AI și, de asemenea, veți atenua atacurile. În mod specific, studenții vor

  1. antrenați un model de învățare automată (Random Forest) pe setul de date pentru adulți pentru a prezice atributul venitului binar din setul de date
  2. măsurați riscurile de confidențialitate prin lansarea unui atac de membru asupra modelului instruit pentru a verifica dacă prezența oricărei persoane în datele de antrenament poate fi detectată numai din predicția modelului (atac cu cutie neagră)
  3. atac de deducție a atributelor de lansare asupra modelului instruit pentru a verifica dacă atributul lipsă (sensibil) poate fi dedus din unele date auxiliare care seamănă cu datele originale și cu rezultatul modelului instruit (atac cu cutie neagră)

Elevii vor forma grupuri de câte doi și vor lucra ca o echipă. Un grup trebuie să furnizeze o singură documentație/soluție.

Confirmări

Programul de masterat AI centrat pe om a fost cofinantat de Mecanismul pentru interconectarea Europei al Uniunii Europene sub Grantul CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.