Administrativne informacije
Naslov | Vjerodostojno strojno učenje |
Trajanje | 60 min |
Modul | B |
Vrsta lekcija | Predavanje |
Fokus | Etika – pouzdana umjetna inteligencija |
Tema | Povjerljivost, integritet i dostupnost problema u strojnom učenju |
Ključne riječi
Povjerljivost, Integrity, Dostupnost, otrovanje, Evazija, Adversarial primjeri, Spužvi primjeri, Backdoors, Objašnjenja Utaja, Robustness, Trgovina-off,
Ciljevi učenja
- Dobiti opći pregled glavnih sigurnosnih problema strojnog učenja
- Razumijevanje glavnih pitanja povjerljivosti, integriteta i dostupnosti strojnog učenja
- Razlikovanje izbjegavanja, trovanja i napada stražnjim vratima
- Razumijevanje napada trovanja čistom oznakom
- Dobiti intuiciju kontradiktornih primjera i njihov praktični učinak na primjere iz stvarnog života
- Demonstriranje napada na dostupnost umjetno izgrađenih spužvastih primjera
- Razumijevanje prijetnje objašnjivosti izbjegavanja
- Razumijevanje kompromisa između robusnosti i kvalitete modela
- Naučite načela revizije umjetne inteligencije (robustness)
Očekivana priprema
Edukativni događaji koji će biti završeni prije
Obvezno za studente
- Osnove u strojnom učenju
Neobvezno za studente
Nijedan.
Preporuke i pozadina za studente
- Webinar HCAIM-a o europskom pristupu pouzdanoj, sigurnoj i pouzdanoj umjetnoj inteligenciji (dostupno na YouTubeu)
- Primjeri kontradiktornosti i kontradiktorna izobrazba
- Kontradiktornost – teorija i praksa
- Napadi na vektorske strojeve
- Praktični Black-Box napadi protiv strojnog učenja
- Prema procjeni otpornosti neuronskih mreža
- Certificirana kontradiktornost putem nasumičnog uglađivanja
- Primjerispužve: Energetski napadi na neuronske mreže
- Objašnjenja se mogu manipulirati, a geometrija je kriva
- Otrovne žabe! Ciljani napadi čistom oznakom otrovanja na neuronske mreže
- Sveobuhvatna analiza privatnosti dubokog učenja
- Privatnost podataka i pouzdano strojno učenje
Preporučeno nastavnicima
Nastavni materijali
Upute za učitelje
Ovaj tečaj pruža pregled sigurnosti sustava strojnog učenja. Usmjeren je na napade koji su korisni za reviziju modela strojnog učenja robusnosti. Nastavnicima se preporučuje da koriste primjere iz stvarnog života kako bi dokazali praktičnu važnost tih ranjivosti, posebno za pitanja povezana s privatnošću o kojima se često raspravlja u praksi i smatra se preprekom ljudskom razvoju. Studenti moraju shvatiti da rizici za privatnost također mogu usporiti napredak (stranke koje se suočavaju s rizicima povjerljivosti mogu biti nesklone dijeliti svoje podatke). Studenti mogu steći razumijevanje različitih sigurnosnih i privatnih rizika ML modela i mogu dodatno razviti više praktičnih vještina za reviziju ML modela u povezanim praktičnim obrazovnim događajima, a to su:
- Praktično: Povećanje sigurnosti i otpornosti ML-a
- Praktično: Primijeniti okvire za reviziju
- Praktično: Primjena i ocjenjivanje tehnika očuvanja privatnosti
- Praktično: Revizija okvira privatnosti i zaštite podataka
Nacrt
Trajanje (min) | Opis | Koncepti |
---|---|---|
5 | CIA trijada | CIA (povjerljivost, intergrity, dostupnost) u strojnom učenju |
15 | Povjerljivost | Napad na članstvo, izvlačenje podataka o obuci. Krađa modela. |
20 | Integritet | Izbjegavanje, otrovanje (ciljano, neciljano), Objašnjivost, stražnja vrata. |
15 | Dostupnost | Stvaramo primjere spužve. |
5 | Zaključci |
Priznanja
Diplomski studij umjetne inteligencije usmjeren na čovjeka sufinanciran je Instrumentom za povezivanje Europe Europske unije u okviru bespovratnih sredstava CEF-TC-2020 – 1 Digital Skills 2020-EU-IA-0068.