[ta stran na wikiju][indeks][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Praktično: Uporaba in vrednotenje tehnik za ohranjanje zasebnosti

Upravne informacije

Naslov Obramba pred članstvom in atributiranje napadov v modelih strojnega učenja
Trajanje 90 min
Modul B
Vrsta lekcije Praktična
Osredotočenost Etična – zaupanja vredna umetna inteligenca
Tema Napadi na zasebnost pri strojnem učenju, protiukrepi

Ključne besede

Zasebnost strojnega učenja, blaženje, anonimizacija, diferencialna zasebnost, Diferencialno zasebno usposabljanje, Naključni gozd,

Učni cilji

Pričakovana priprava

Obvezno za študente

  • Python
  • Škarje
  • Pande
  • UMETNOST
  • Smartnoise-SDK
  • virtualni env
  • Napadi članstva
  • Atribut sklepanja
  • Diferencialna zasebnost
  • Vrednotenje modela

Neobvezno za študente

Nobenega.

Gradivo za učne ure

Navodila za učitelje

Ta laboratorijska vaja je nadaljevanje praktičnega: Revizijska okvira zasebnosti in varstva podatkov,kjer se razvijajo napadi zasebnosti proti modelom ML, medtem ko je ta trenutni učni dogodek namenjen blažitvi teh napadov.

Modeli strojnega učenja so pogosto usposobljeni za zaupne (ali osebne, občutljive) podatke. Na primer, tak model lahko predvidi plačo posameznika iz njegovih drugih lastnosti (kot so izobrazba, življenjski prostor, rasa, spol itd.). Pogosto napačno prepričanje je, da se taki modeli ne štejejo za osebne podatke, tudi če so njihovi podatki o usposabljanju osebni (dejansko so lahko podatki o usposabljanju zbiranje evidenc o posameznikih), saj se izračunajo iz zbirnih informacij, pridobljenih iz občutljivih podatkov o usposabljanju (npr. povprečje gradientov v nevronskih mrežah ali entropija/število oznak v naključnih gozdovih). Cilj te laboratorijske seje je pokazati, da se modeli strojnega učenja lahko obravnavajo kot osebni podatki, zato je zelo verjetno, da bo njihova obdelava v številnih državah urejena (npr. s Splošno uredbo o varstvu podatkov v Evropi). Študenti bodo načrtovali napade zasebnosti, da bi preverili, ali usposobljeni modeli puščajo informacije o svojih podatkih o usposabljanju, in tudi ublažili te napade. Na primer, napadi na podlagi sklepanja o članstvu so namenjeni odkrivanju prisotnosti določenega vzorca v podatkih o usposabljanju ciljnega modela iz modelov in/ali njegovih rezultatov. Napadi bele škatle lahko dostopajo do usposobljenih modelov (vključno z njegovimi parametri) in rezultatov modela (tj. njegovih napovedi), medtem ko lahko modeli črne škatle dostopajo le do napovedi modela za dani vzorec. Atributni napadi sklepanja so namenjeni napovedovanju manjkajočega občutljivega atributa iz izhoda modela strojnega učenja, ki je usposobljen za vse druge atribute.

Učiteljem se priporoča, da poudarijo kompromis med ohranjanjem zasebnosti in kakovostjo modela/točnostjo podatkov na splošno. Če je potrebno, se lahko v učni načrt vgradijo dodatne vaje, da se to dokaže (ocenite kakovost modela glede na epsilon in delto).

Obris

V tej laboratorijski seji boste zmanjšali tveganja za zasebnost fin AI modelov. Študenti bodo razvili dve tehniki za ublažitev:

  1. Obramba 1: ustvarjanje sintetičnih podatkov z jamstvi diferencialne zasebnosti in preverjanje
    • koliko se kakovost modela poslabša, če se sintetični podatki, ki ohranjajo zasebnost, uporabljajo za usposabljanje modela namesto prvotnih podatkov (odvisno od parametra zasebnosti epsilon)
    • če usposabljanje za sintetične podatke namesto prvotnih preprečuje članstvo in atribut napad sklepanja
  2. Obramba 2: trenirajte model z diferencialnimi jamstvi zasebnosti in preverite
    • koliko se kakovost modela poslabša, če se namesto prvotnega modela za napovedovanje uporablja model za ohranjanje zasebnosti (odvisno od parametra zasebnosti epsilon)
    • če model za ohranjanje zasebnosti preprečuje napad članstva
    • kako se spreminja natančnost modela za ohranjanje zasebnosti v primerjavi z obrambo 1

Učenci bodo sestavljali dve skupini in delali kot ekipa. Ena skupina mora predložiti samo eno dokumentacijo/rešitev.

Priznanja

Program Masters umetne inteligence, ki je bil vključen v človeka, je bil sofinanciran z instrumentom za povezovanje Evrope Evropske unije v okviru nepovratnih sredstev (CEF-TC-2020–1 Digital Skills 2020-EU-IA-0068).