Verwaltungsinformationen
Titel | Vertrauenswürdiges maschinelles Lernen |
Dauer | 60 min |
Modulen | B |
Unterrichtstyp | Vortrag |
Fokussierung | Ethisch – vertrauenswürdige KI |
Themenbereich | Vertraulichkeit, Integrität und Verfügbarkeitsprobleme beim maschinellen Lernen |
Suchbegriffe
Vertraulichkeit,Integrität,Verfügbarkeit,Vergiftung,Evasion,Adversarial Beispiele,Schwamm Beispiele,Backdoors,Explainability evasion,Robustness,Trade-off,
Lernziele
- Verschaffen Sie sich einen allgemeinen Überblick über die wichtigsten Sicherheitsprobleme des maschinellen Lernens
- Verständnis der wichtigsten Vertraulichkeits-, Integritäts- und Verfügbarkeitsprobleme des maschinellen Lernens
- Unterscheidung von Flucht-, Vergiftungs- und Hintertürangriffen
- Verstehen von Clean-Label-Vergiftungsangriffen
- Erhalten Sie die Intuition von kontradiktorischen Beispielen und ihre praktische Wirkung durch reale Beispiele
- Demonstration der Verfügbarkeitsangriffe durch künstlich konstruierte Schwammbeispiele
- Die Bedrohung durch Erklärbarkeitsvermeidung verstehen
- Den Kompromiss zwischen Robustheit und Modellqualität verstehen
- Lernen Sie die Prinzipien von AI (Robustness) Auditing
Erwartete Vorbereitung
Lernveranstaltungen, die vorab abgeschlossen werden müssen
Obligatorisch für Studenten
- Grundlagen des maschinellen Lernens
Optional für Studenten
Keine.
Referenzen und Hintergründe für Studierende
- HCAIM-Webinar zum europäischen Ansatz für zuverlässige, sichere und vertrauenswürdige KI (verfügbar auf YouTube)
- Adversarial Beispiele und Adversarial Training
- Kontradiktorische Robustheit – Theorie und Praxis
- Vergiftungsangriffe gegen Unterstützungsvektormaschinen
- Praktische Black-Box-Angriffe gegen maschinelles Lernen
- Bewertung der Robustheit neuronaler Netze
- Zertifizierte Adversarial Robustheit durch Randomized Smoothing
- Schwamm Beispiele: Energie-Latency-Angriffe auf neuronale Netze
- Erklärungen können manipuliert werden und Geometrie ist schuld
- Giftfrösche! Gezielte Clean-Label-Vergiftungsangriffe auf neuronale Netze
- Umfassende Datenschutzanalyse von Deep Learning
- Datenschutz und vertrauenswürdiges maschinelles Lernen
Empfohlen für Lehrer
Unterrichtsmaterialien
Anleitung für Lehrer
Dieser Kurs bietet einen Überblick über die Sicherheit von maschinellen Lernsystemen. Es konzentriert sich auf Angriffe, die für die Prüfung der Robustheit Machine Learning-Modelle nützlich sind. Lehrern wird empfohlen, anhand von Beispielen aus dem realen Leben die praktische Relevanz dieser Schwachstellen zu demonstrieren, insbesondere für datenschutzbezogene Themen, deren praktische Relevanz häufig diskutiert und als Hindernis für die menschliche Entwicklung betrachtet wird. Die Studierenden müssen verstehen, dass Datenschutzrisiken auch den Fortschritt verlangsamen können (Parteien, die mit Vertraulichkeitsrisiken konfrontiert sind, können zögern, ihre Daten zu teilen). Die Studierenden können die verschiedenen Sicherheits- und Datenschutzrisiken von ML-Modellen verstehen und weitere praktische Fähigkeiten entwickeln, um ML-Modelle in den zugehörigen praktischen Lernveranstaltungen zu auditieren, die:
- Praktisch: Verbesserung der ML-Sicherheit und Robustheit
- Praktisch: Auditing Frameworks anwenden
- Praktisch: Anwendung und Bewertung von datenschutzerhaltenden Techniken
- Praktisch: Prüfungsrahmen der Privatsphäre und des Datenschutzes
Gliederung
Dauer (min) | Beschreibung | Konzepte |
---|---|---|
5 | CIA-Triade | CIA (Vertraulichkeit, Intergrität, Verfügbarkeit) in Machine Learning |
15 | Geheimhaltung | Mitgliedschaftsangriff, Trainingsdatenextraktion. Modell stehlen. |
20 | Integrität | Evasion, Vergiftung (gezielt, ungerichtet), Ausweichen Erklärbarkeit, Hintertüren. |
15 | Verfügbarkeit | Erstellung von Schwammbeispielen. |
5 | Schlussfolgerungen |
Danksagung
Das Human-Centered AI Masters-Programm wurde von der Fazilität „Connecting Europe“ der Europäischen Union im Rahmen des Zuschusses „CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068“ kofinanziert.