Informations administratives
Titre | IA Risques et Gestion des Risques |
Durée | 90 |
Module | B |
Type de leçon | Session interactive |
Focus | Éthique — IA digne de confiance |
Sujet | Risque |
Mots-clés
IA Risque,Gestion des Risques,Gestion de la Résilience,Intelligence Explicable, AI Interprétable,Sécurité, Résilience, Transparence, Comptabilité,
Objectifs d’apprentissage
- Reconnaître, analyser et discuter de la nécessité et du rôle des tests de sécurité dans l’IA.
- Utiliser des documents, tels que la loi sur l’IA, pour classer les cas d’utilisation en catégories de risques.
- Discuter en profondeur et avec un vocabulaire européen commun sur les risques liés à l’IA et comment l’IA peut-elle être conçue de manière sûre et bienveillante, de manière à ne pas exposer les humains à des risques inacceptables de préjudice, même lorsque des comportements à risque peuvent faire avancer un objectif du système.
- Classer les obligations des fournisseurs et des utilisateurs en matière de gestion des risques liés à l’IA.
- Discuter des exigences applicables aux systèmes d’IA à haut risque conformément à la loi sur l’IA.
- Élaborer et reconnaître les risques spécifiques et les taxonomies de risque, pertinents tout au long des différentes étapes du cycle de vie de l’IA.
Préparation prévue
Événements d’apprentissage à compléter avant
Aucun.
Obligatoire pour les étudiants
- Groupe d’experts de haut niveau sur l’intelligence artificielle (AI HLEG). (8 avril 2019). Commission européenne. «Lignes directrices en matière d’éthique pour une IA digne de confiance.
- Conférence HCAIM sur l’atténuation des risques et des risques
Optionnel pour les étudiants
- Webinaire HCAIM sur l’approche européenne vers une IA fiable, sûre et digne de confiance (disponible sur YouTube)
- Webinaire HCAIM sur le rôle de la sécurité et de la vie privée dans l’apprentissage automatique (disponible sur YouTube)
Références et antécédents pour les étudiants
- Groupe d’experts de haut niveau sur l’intelligence artificielle (AI HLEG). (8 avril 2019). Commission européenne. «Lignes directrices en matière d’éthique pour une IA digne de confiance.
- Conférence HCAIM sur l’atténuation des risques et des risques
Recommandé pour les enseignants
- Commission européenne: Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées en matière d’intelligence artificielle (loi sur l’intelligence artificielle), 2021
- Agence de l’Union européenne pour la cybersécurité, Malatras, A., Dede, G., «Les défis de cybersécurité de l’IA»: paysage des menaces pour l’intelligence artificielle, Agence européenne chargée de la sécurité des réseaux et de l’information, 2020
- Groupe d’experts de haut niveau sur l’intelligence artificielle (AI HLEG). (8 avril 2019). Commission européenne. «Lignes directrices en matière d’éthique pour une IA digne de confiance».
- Utilisations malveillantes et abus de l’intelligence artificielle 2020, Publication d’Europol
Matériel de leçon
Instructions pour les enseignants
Cette session interactive vise à construire un vocabulaire commun pour les étudiants pour discuter des risques et de la gestion des risques liés à l’IA, en particulier à travers l’approche de l’UE fondée sur les risques à l’égard de l’IA. Les documents fournis, ainsi que le plan général et le calendrier de la session interactive sont indicatifs et présentés afin de mieux guider une discussion avec les élèves. Tant que les objectifs d’apprentissage sont atteints, les instructeurs sont encouragés à suivre le flux naturel de la discussion.
Plan et calendrier de la session interactive:
Durée | Sujet | Description |
---|---|---|
15 minutes | Introduction | Définir le risque. L’approche de l’UE à l’égard de la gestion des risques liés à l’IA. Stratégies de gestion des risques tout au long du cycle de vie de l’IA. |
30 minutes | Classement des risques | Les actifs de l’IA et la taxonomie des menaces et les cadres de gestion des risques pour décrire les caractéristiques techniques de la conception de l’IA. |
30 minutes | Atténuer les risques | Approche de l’atténuation des risques à l’aide de cas d’utilisation et d’un vocabulaire commun et de modèles de référence pour tirer parti de la discussion. |
15 minutes | Remarques de clôture | Discussion avec les étudiants. Questions et réponses. |
Deux webinaires HCAIM sont particulièrement pertinents pour cette session interactive. Ceux-ci pourraient être montrés avant la discussion ou des parties d’entre elles pourraient être jouées pour faciliter les sujets et gérer le silence.
Remerciements
Cette présentation a été développée par le Dr George Sharkov et Christina Todorova au European Software Institute — Center Eastern Europe.
La présentation utilise des diapositives d’une présentation du Dr Mihály Héder à l’Université de technologie et d’économie de Budapest. S’il vous plaît, envisagez de suivre son travail.
Le programme de master IA centré sur l’humain a été cofinancé par le mécanisme pour l’interconnexion en Europe de l’Union européenne dans le cadre de la subvention CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.