Informations administratives
Titre | Apprentissage automatique digne de confiance |
Durée | 60 min |
Module | B |
Type de leçon | Conférence |
Focus | Éthique — IA digne de confiance |
Sujet | Problèmes de confidentialité, d’intégrité et de disponibilité dans l’apprentissage automatique |
Mots-clés
Confidentialité,Intégrité,Disponibilité,Poisonnement,Evasion,Exemples contradictoires,Exemples d’éponge,Backdoors,Explainability Evasion,Robustness, Trade-off,
Objectifs d’apprentissage
- Obtenez une vue d’ensemble des principaux problèmes de sécurité de l’apprentissage automatique
- Comprendre les principaux problèmes de confidentialité, d’intégrité et de disponibilité de l’apprentissage automatique
- Distinguer les attaques d’évasion, d’empoisonnement et de porte dérobée
- Comprendre les attaques d’empoisonnement à l’étiquette propre
- Obtenir l’intuition des exemples contradictoires et son impact pratique à travers des exemples réels
- Démontrer les attaques de disponibilité par des exemples d’éponges artificiellement construits
- Comprendre la menace d’évasion explicabilité
- Comprendre le compromis entre robustesse et qualité du modèle
- Apprenez les principes de l’audit de l’IA (robustness)
Préparation prévue
Événements d’apprentissage à compléter avant
Obligatoire pour les étudiants
- Bases dans l’apprentissage automatique
Optionnel pour les étudiants
Aucun.
Références et antécédents pour les étudiants
- Webinaire HCAIM sur l’approche européenne vers une IA fiable, sûre et digne de confiance (disponible sur YouTube)
- Exemples d’adversaires et d’entraînements contradictoires
- Résistance de l’adversaire — Théorie et pratique
- Attaques d’empoisonnement contre des machines vectorielles de soutien
- Attaques pratiques de Black-Box contre l’apprentissage automatique
- Vers l’évaluation de la robustesse des réseaux neuronaux
- Robustness Adversaire Certifiée via Randomized Smoothing
- Éponge Exemples: Attaques de latence énergétique sur les réseaux neuronaux
- Les explications peuvent être manipulées et la géométrie est à blâmer
- Des grenouilles empoisonnées! Attaques ciblées d’empoisonnement à la marque propre sur les réseaux neuronaux
- Analyse complète de la vie privée de l’apprentissage profond
- Confidentialité des données et apprentissage automatique digne de confiance
Recommandé pour les enseignants
Matériel de leçon
Instructions pour les enseignants
Ce cours fournit un aperçu de la sécurité des systèmes d’apprentissage automatique. Il se concentre sur les attaques utiles pour l’audit des modèles d’apprentissage automatique robustes. Il est recommandé aux enseignants d’utiliser des exemples concrets pour démontrer la pertinence pratique de ces vulnérabilités, en particulier pour les questions liées à la vie privée, dont la pertinence pratique est souvent débattue et considérée comme un obstacle au développement humain. Les étudiants doivent comprendre que les risques liés à la vie privée peuvent également ralentir les progrès (les parties confrontées à des risques de confidentialité peuvent être réticentes à partager leurs données). Les étudiants peuvent acquérir une compréhension des différents risques pour la sécurité et la vie privée des modèles ML et peuvent développer des compétences plus pratiques pour auditer les modèles ML dans les événements d’apprentissage pratiques connexes, qui sont:
- Pratique: Amélioration de la sécurité et de la robustesse de ML
- Pratique: Appliquer des cadres d’audit
- Pratique: Application et évaluation des techniques de préservation de la vie privée
- Pratique: Cadres d’audit de la vie privée et de la protection des données
Esquisse
Durée (min) | Description | Concepts |
---|---|---|
5 | Triade de la CIA | CIA (confidentialité, intergrité, disponibilité) dans Machine Learning |
15 | Confidentialité | Attaque d’adhésion, extraction de données d’entraînement. Le modèle vole. |
20 | Intégrité | Évasion, empoisonnement (ciblé, non ciblé), explicabilité d’évasion, portes dérobées. |
15 | Disponibilité | Génération d’exemples d’éponges. |
5 | Conclusions |
Remerciements
Le programme de master IA centré sur l’humain a été cofinancé par le mécanisme pour l’interconnexion en Europe de l’Union européenne dans le cadre de la subvention CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.