[ta stran na wikiju][indeks][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Praktično: Revizijski okviri zasebnosti in varstva podatkov

Upravne informacije

Naslov Članstvo in atributi Napadi na modele strojnega učenja
Trajanje 90 min
Modul B
Vrsta lekcije Praktična
Osredotočenost Etična – zaupanja vredna umetna inteligenca
Tema Napadi na zasebnost pri strojnem učenju

Ključne besede

Revizija, Zasebnost strojnega učenja, Preskus sklepanja članstva, Atribute Inference Test,

Učni cilji

Pričakovana priprava

Obvezno za študente

  • Python
  • Škarje
  • Pande
  • UMETNOST
  • virtualni env
  • Napadi članstva
  • Atribut sklepanja
  • Vrednotenje modela

Neobvezno za študente

Nobenega.

Gradivo za učne ure

Navodila za učitelje

Ta laboratorijska vaja je namenjena razvoju praktičnih spretnosti študentov revidiranja jamstev za zasebnost modelov strojnega učenja. Študenti morajo razumeti, da napadi članstva predpostavljajo poznavanje ciljnega vzorca, ki ga je treba preskusiti, kar ni vedno izvedljivo. Kljub temu lahko uspeh sklepanja o članstvu v prihodnosti predvideva resnejše uhajanje zasebnosti.

Modeli strojnega učenja so pogosto usposobljeni za zaupne (ali osebne, občutljive) podatke. Na primer, tak model lahko predvidi plačo posameznika iz njegovih drugih lastnosti (kot so izobrazba, življenjski prostor, rasa, spol itd.). Pogosto napačno prepričanje je, da se taki modeli ne štejejo za osebne podatke, tudi če so njihovi podatki o usposabljanju osebni (dejansko so lahko podatki o usposabljanju zbiranje evidenc o posameznikih), saj se izračunajo iz zbirnih informacij, pridobljenih iz občutljivih podatkov o usposabljanju (npr. povprečje gradientov v nevronskih mrežah ali entropija/število oznak v naključnih gozdovih). Cilj te laboratorijske seje je pokazati, da se modeli strojnega učenja lahko obravnavajo kot osebni podatki, zato je zelo verjetno, da bo njihova obdelava v številnih državah urejena (npr. s Splošno uredbo o varstvu podatkov v Evropi). Študenti bodo načrtovali napade zasebnosti, da bi preverili, ali usposobljeni modeli puščajo informacije o svojih podatkih o usposabljanju, in tudi ublažili te napade. Na primer, napadi na podlagi sklepanja o članstvu so namenjeni odkrivanju prisotnosti določenega vzorca v podatkih o usposabljanju ciljnega modela iz modelov in/ali njegovih rezultatov. Napadi bele škatle lahko dostopajo do usposobljenih modelov (vključno z njegovimi parametri) in rezultatov modela (tj. njegovih napovedi), medtem ko lahko modeli črne škatle dostopajo le do napovedi modela za dani vzorec. Atributni napadi sklepanja so namenjeni napovedovanju manjkajočega občutljivega atributa iz izhoda modela strojnega učenja, ki je usposobljen za vse druge atribute.

Nadaljnji učni dogodek je namenjen blažitvi teh groženj: Praktično: Uporaba in vrednotenje tehnik za ohranjanje zasebnosti

Obris

V tej laboratorijski seji boste izmerili tveganja za zasebnost modelov umetne inteligence in ublažili napade. Študenti bodoše posebej

  1. usposabljanje modela strojnega učenja (Random Forest) na naboru podatkov za odrasle za napoved atributa binarnega dohodka v naboru podatkov
  2. izmerite tveganja za zasebnost tako, da sprožite napad s članstvom na usposobljenem modelu, da preverite, ali je prisotnost katerega koli posameznika v podatkih o usposabljanju mogoče zaznati samo iz napovedi modela (napad črne škatle)
  3. napad atributa zagona na usposobljenem modelu, da se preveri, ali je mogoče manjkajoči (občutljiv) atribut izpeljati iz nekaterih pomožnih podatkov, ki so podobni prvotnim podatkom in izhodu usposobljenega modela (napad črnega polja)

Učenci bodo sestavljali dve skupini in delali kot ekipa. Ena skupina mora predložiti samo eno dokumentacijo/rešitev.

Priznanja

Program Masters umetne inteligence, ki je bil vključen v človeka, je bil sofinanciran z instrumentom za povezovanje Evrope Evropske unije v okviru nepovratnih sredstev (CEF-TC-2020–1 Digital Skills 2020-EU-IA-0068).