Administratieve informatie
Titel | Betrouwbaar machine learning |
Looptijd | 60 min |
Module | B |
Type les | Lezing |
Focus | Ethisch — betrouwbare AI |
Onderwerp | Vertrouwelijkheid, integriteit en beschikbaarheidsproblemen in machine learning |
Sleutelwoorden
Vertrouwelijkheid, Integriteit, Beschikbaarheid, Poisoning, Evasion, Adversarial voorbeelden, Sponge voorbeelden, Achterdeuren, Uitlegbaarheidsontduiking,Robustness, Trade-off,
Leerdoelen
- Krijg een algemeen overzicht van de belangrijkste beveiligingsproblemen van machine learning
- Inzicht in de belangrijkste vertrouwelijkheid, integriteit en beschikbaarheidsproblemen van machine learning
- Onderscheid maken tussen ontwijking, vergiftiging en achterdeuraanvallen
- Inzicht in vergiftigingsaanvallen op schone labels
- Krijg de intuïtie van contradictoire voorbeelden en de praktische impact ervan door middel van real-life voorbeelden
- Demonstreren van de beschikbaarheid aanvallen door kunstmatig geconstrueerde spons voorbeelden
- Inzicht in de dreiging van verklaarbaarheidsontduiking
- Inzicht in de afweging tussen robuustheid en modelkwaliteit
- Leer de principes van AI (robuustness) auditing
Verwachte voorbereiding
Leren van gebeurtenissen die moeten worden voltooid voordat
Verplicht voor studenten
- Basisprincipes in machine learning
Optioneel voor studenten
Geen.
Referenties en achtergronden voor studenten
- HCAIM Webinar over de Europese aanpak naar betrouwbare, veilige en betrouwbare AI (beschikbaar op YouTube)
- Adversarial Voorbeelden en Adversarial Training
- Tegendraadsheid — Theorie en Praktijk
- Vergiftigingsaanvallen tegen steunvectormachines
- Praktische Black-Box aanvallen tegen machine learning
- Naar het evalueren van de robuustheid van neurale netwerken
- Gecertificeerde Adversarial Robustness via Randomized Smoothing
- Spons Voorbeelden: Energy-Latency aanvallen op neurale netwerken
- Verklaringen kunnen worden gemanipuleerd en geometrie is de schuld
- Gifkikkers! Gerichte Clean-Label vergiftigingsaanvallen op neurale netwerken
- Uitgebreide Privacy Analyse van Deep Learning
- Gegevensprivacy en betrouwbare machine learning
Aanbevolen voor docenten
Lesmateriaal
Instructies voor docenten
Deze cursus biedt een overzicht van de veiligheid van machine learning systemen. Het richt zich op aanvallen die nuttig zijn voor het controleren van de robuustheid machine learning modellen. Docenten wordt aanbevolen om praktijkvoorbeelden te gebruiken om de praktische relevantie van deze kwetsbaarheden aan te tonen, met name voor privacygerelateerde kwesties waarvan de praktische relevantie vaak wordt besproken en beschouwd als een belemmering voor de menselijke ontwikkeling. Studenten moeten begrijpen dat privacyrisico’s ook de voortgang kunnen vertragen (partijen die geconfronteerd worden met vertrouwelijkheidsrisico’s kunnen terughoudend zijn om hun gegevens te delen). Studenten kunnen inzicht krijgen in de verschillende veiligheids- en privacyrisico’s van ML-modellen en kunnen meer praktische vaardigheden ontwikkelen om ML-modellen te controleren in de gerelateerde praktische leerevenementen, die zijn:
- Praktisch: Verbetering van de beveiliging en robuustheid van ML
- Praktisch: Controlekaders toepassen
- Praktisch: Toepassen en evalueren van privacy-behoud technieken
- Praktisch: Controlekaders voor privacy en gegevensbescherming
Omtrek
Duur (min) | Omschrijving | Concepten |
---|---|---|
5 | CIA triade | CIA (vertrouwelijkheid, intergriteit, beschikbaarheid) in Machine Learning |
15 | Vertrouwelijkheid | Lidmaatschap aanval, training data extractie. Model stelen. |
20 | Integriteit | Ontwijken, vergiftigen (targeted, untargeted), ontwijken verklaarbaarheid, Backdoors. |
15 | Beschikbaarheid | Het genereren van sponsvoorbeelden. |
5 | Conclusies |
Erkenningen
Het Human-Centered AI Masters-programma werd mede gefinancierd door de Connecting Europe Facility van de Europese Unie in het kader van de subsidie CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.