Informations administratives
Titre | Atténuation des risques et des risques dans la pratique |
Durée | 60 minutes |
Module | B |
Type de leçon | Pratique |
Focus | Éthique — IA digne de confiance |
Sujet | Risque |
Mots-clés
Risque, atténuation des risques,
Objectifs d’apprentissage
- L’apprenant acquiert une expérience pratique avec les cadres de risque
- L’apprenant bénéficie d’une expérience pratique avec les normes pertinentes.
Préparation prévue
Événements d’apprentissage à compléter avant
Obligatoire pour les étudiants
- Concepts de risques et leur atténuation
Optionnel pour les étudiants
Aucun.
Références et antécédents pour les étudiants
Aucun.
Recommandé pour les enseignants
- Lisez vous-même le projet de norme
Matériel de leçon
- Loi sur l’ intelligence artificielle (législation non élaborée par le consortium HCAIM)
- Norme IEEE 7000-2021 (normes non élaborées par le consortium HCAIM)
Instructions pour les enseignants
- Cette activité est basée sur le processus de modèle standard IEEE 7000-2021 pour répondre aux préoccupations éthiques lors de la conception du système.
- Cette norme devrait être approuvée par la loi de l’UE sur l’IA avec une personnalisation spécifique.
Cette norme s’accompagne d’une approche fondée sur les risques
- Pour chaque équipe de 4 à 6 étudiants, spécifiez un système d’IA imaginaire que les étudiants doivent développer. *L’idée ici est de donner à chaque groupe quelque chose avec un autre (selon les catégories de risque de la loi sur l’IA de l’UE). Exemples:
- surveillance avec reconnaissance faciale pour un aéroport (indice: ceci est interdit sauf dans des cas très bien définis)
- système automatisé de classement des essais (indice: probablement à haut risque, surtension humaine nécessaire)
- système de recommandation pour les séries télévisées (à faible risque, mais il existe des dispositions pour les enfants)
- chat bot dans le jeu AI pour un MMORPG (à faible risque)
- Demandez-leur de lire le chapitre sur la catégorisation des risques de la loi sur l’IA (titre II et titre III)
Guide des conférenciers
- Cette activité est basée sur le processus de modèle standard IEEE 7000-2021 pour répondre aux préoccupations éthiques lors de la conception du système.
- Cette norme devrait être approuvée par la loi de l’UE sur l’IA avec une personnalisation spécifique.
- Cette norme s’accompagne d’une approche fondée sur les risques
- Pour chaque équipe de 4 à 6 étudiants, spécifiez un système d’IA imaginaire que les étudiants doivent développer. L’idée ici est de donner à chaque groupe quelque chose de différent (selon les catégories de risque de la loi sur l’IA de l’UE). Exemples:
- surveillance avec reconnaissance faciale pour un aéroport (indice: ceci est interdit sauf dans des cas très bien définis)
- système automatisé de classement des essais (indice: probablement à haut risque, surtension humaine nécessaire)
- système de recommandation pour les séries télévisées (à faible risque, mais il existe des dispositions pour les enfants)
- chat bot dans le jeu AI pour un MMORPG (à faible risque)
- Demandez-leur de lire le chapitre sur la catégorisation des risques de la loi sur l’IA (titre II et titre III)
Remerciements
Le programme de master IA centré sur l’humain a été cofinancé par le mécanisme pour l’interconnexion en Europe de l’Union européenne dans le cadre de la subvention CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.