Informations administratives
Titre | Confidentialité dans l’apprentissage automatique |
Durée | 90 min |
Module | B |
Type de leçon | Conférence |
Focus | Éthique — IA digne de confiance |
Sujet | Confidentialité |
Mots-clés
Modèles adversaires,extraction de données d’entraînement, attaque d’adhésion, extraction de modèles,
Objectifs d’apprentissage
- Compréhension des risques liés à la vie privée dans l’apprentissage automatique
- Distinguer les données d’entraînement et les extractions de modèles d’attaques/menaces
- Apprendre la modélisation contradictoire et l’analyse des menaces en IA
- Découvrez les principes de l’audit de confidentialité de l’IA
- Distinguer les attaques d’adhésion et de reconstruction
- Distinguer l’attaque d’adhésion et l’inversion du modèle
Préparation prévue
Événements d’apprentissage à compléter avant
- Conférence: Introduction à la vie privée et aux risques
- Conférence: Montage et optimisation du modèle
- Conférence: Risque & atténuation des risques
- Conférence: Confidentialité
- Conférence: Analyse exploratoire des données
- Conférence: Inférence et prédiction
- Conférence: Évaluation du modèle
- Conférence: Réseaux neuronaux
- Conférence: Comprendre les données
Obligatoire pour les étudiants
- les bases de l’apprentissage automatique,
- algèbre linéaire de base,
- analyse des fonctions de base
Optionnel pour les étudiants
Aucun.
Références et antécédents pour les étudiants
- Un aperçu de la vie privée dans l’apprentissage automatique
- Confidentialité des données et apprentissage automatique digne de confiance
- Attaques d’inférence d’adhésion contre les modèles d’apprentissage automatique
- Analysecomplète de la vie privée de l’apprentissage profond: Attaques passives et actives d’inférence de boîtes blanches contre l’apprentissage centralisé et fédéré
- Extraction de données d’entraînement à partir de grands modèles linguistiques
- Machine learning avec la confidentialité des membres en utilisant la régularisation contradictoire
- Le partageur secret: Évaluation et test de mémorisation involontaire dans les réseaux neuronaux
Recommandé pour les enseignants
Matériel de leçon
Instructions pour les enseignants
Ce cours fournit une introduction générale aux différents problèmes de confidentialité de l’apprentissage automatique. Il est recommandé aux enseignants d’utiliser des exemples concrets pour démontrer la pertinence pratique de ces vulnérabilités, en particulier pour les questions liées à la vie privée, dont la pertinence pratique est souvent débattue et considérée comme un obstacle au développement humain. Les étudiants doivent comprendre que les risques liés à la vie privée peuvent également ralentir les progrès (les parties confrontées à des risques de confidentialité peuvent être réticentes à partager leurs données). Il met l’accent sur la compréhension de base nécessaire pour reconnaître les menaces à la vie privée aux fins de l’audit des modèles d’apprentissage automatique. Les compétences pratiques connexes peuvent être développées dans le cadre d’événements d’apprentissage plus pratiques:
- Pratique: Application et évaluation des techniques de préservation de la vie privée
- Pratique: Cadres d’audit de la vie privée et de la protection des données
Esquisse
Durée (min) | Description | Concepts |
---|---|---|
20 | Apprentissage automatique: Récapitulation | Algorithme d’apprentissage, Classification, Réseaux neuronaux, descente progressive, scores de confiance |
5 | Modèles adversaires | White-box, Black-box attaques |
20 | Attaque d’adhésion | Modèle cible, Modèle d’attaquant, Confidentialité différentielle |
20 | Inversion de Modell | Descente en gradient en ce qui concerne les données d’entrée, reconstruction de la moyenne des classes |
20 | Extraction du modèle | Recyclage, reconstruction des paramètres, mesures d’atténuation |
5 | Conclusions |
Remerciements
Le programme de master IA centré sur l’humain a été cofinancé par le mécanisme pour l’interconnexion en Europe de l’Union européenne dans le cadre de la subvention CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.