[táto stránka na wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Praktické: Audit rámcov ochrany súkromia a údajov

Administratívne informácie

Názov Členstvo a pripisovanie útokov na modely strojového učenia
Trvanie 90 minút
Modul B
Druh lekcie Praktické
Zameranie Etika – dôveryhodná umelá inteligencia
Téma Útoky na súkromie na strojové učenie

Kľúčové slová

Audit, Súkromie strojového učenia, Inferenčný test členstva, Attribute Inference Test,

Vzdelávacie ciele

Očakávaná príprava

Povinné pre študentov

  • Python
  • Scikit
  • Pandy
  • UMENIE
  • virtuálna env
  • Útoky na členstvo
  • Odvodenie atribútu
  • Hodnotenie modelu

Voliteľné pre študentov

Žiadne.

Učebné materiály

Pokyny pre učiteľov

Cieľom tohto laboratórneho cvičenia je rozvíjať praktické zručnosti študentov auditu záruk ochrany súkromia modelov strojového učenia. Študenti by mali pochopiť, že útoky členstva predpokladajú znalosť cieľovej vzorky, ktorá sa má testovať, čo nie je vždy uskutočniteľné. Napriek tomu môže úspech vyvodzovania členstva predvídať vážnejšie úniky súkromia v budúcnosti.

Modely strojového učenia sú často vyškolené na dôverné (alebo osobné, citlivé) údaje. Napríklad takýto model môže predpovedať plat jednotlivca z jeho iných atribútov (ako je vzdelanie, životné miesto, rasa, pohlavie atď.). Bežnou mylnou predstavou je, že takéto modely sa nepovažujú za osobné údaje, aj keď sú ich školiace údaje osobné (v skutočnosti, školiace údaje môžu byť zberom záznamov o jednotlivcoch), keďže sa počítajú zo súhrnných informácií odvodených z citlivých trénovacích údajov (napr. priemer gradientov v neurónových sieťach alebo entropia/počet etikety v náhodných lesoch). Cieľom tohto laboratórneho stretnutia je ukázať, že modely strojového učenia možno považovať za osobné údaje, a preto je veľmi pravdepodobné, že ich spracovanie bude regulované v mnohých krajinách (napr. prostredníctvom všeobecného nariadenia o ochrane údajov v Európe). Študenti navrhnú útoky na ochranu súkromia, aby otestovali, či vyškolené modely unikajú informácie o svojich tréningových údajoch, a tiež zmiernia tieto útoky. Cieľom útokov vyplývajúcich z členstva je napríklad odhaliť prítomnosť danej vzorky v tréningových údajoch cieľového modelu z modelov a/alebo jeho výstupu. Útoky White-box majú prístup k trénovaným modelom (vrátane jeho parametrov) aj k výstupu modelu (t. j. k jeho predpovediam), zatiaľ čo modely čiernej skrinky majú prístup len k predpovediam modelu pre danú vzorku. Cieľom útokov na odvodenie atribútov je predpovedať chýbajúci citlivý atribút z výstupu modelu strojového učenia, ktorý je trénovaný, ako aj všetky ostatné atribúty.

Nadväzujúca vzdelávacia udalosť je zameraná na zmiernenie týchto hrozieb: Praktické: Uplatňovanie a hodnotenie techník na zachovanie súkromia

Obrysy

V tejto laboratórnej relácii budete merať riziká ochrany súkromia pre modely umelej inteligencie a tiež zmierniť útoky. Konkrétne, študenti budú

  1. trénujte model strojového učenia (Random Forest) na súbore údajov pre dospelých na predpovedanie atribútu binárneho príjmu v súbore údajov
  2. zmerať riziká v oblasti ochrany súkromia tým, že spustíte útok na vyškolený model, aby ste skontrolovali, či prítomnosť akejkoľvek osoby v tréningových údajoch môže byť zistená len z predikcie modelu (útok čiernej skrinky)
  3. inferenčný útok na vyškolený model, aby sa zistilo, či chýbajúci (citlivý) atribút možno odvodiť z niektorých pomocných údajov pripomínajúcich pôvodné údaje a výstup vyškoleného modelu (útok čiernej schránky)

Študenti budú tvoriť dve skupiny a pracovať ako tím. Jedna skupina musí predložiť len jednu dokumentáciu/riešenie.

Uznania

Program Masters umelej inteligencie zameraný na človeka bol spolufinancovaný z Nástroja Európskej únie na prepájanie Európy v rámci grantu CEF-TC-2020 – 1 Digitálne zručnosti 2020-EU-IA-0068.