Información administrativa
Título | Riesgo y Mitigación del Riesgo en la Práctica |
Duración | 60 minutos |
Módulo | B |
Tipo de lección | Practico |
Enfoque | Ética — IA confiable |
Tema | Riesgo |
Keywords
Riesgo, Mitigación del Riesgo,
Objetivos de aprendizaje
- El alumno obtiene experiencia práctica con marcos de riesgo
- El alumno obtiene experiencia práctica con los estándares relevantes.
Preparación prevista
Eventos de aprendizaje que se completarán antes
Obligatorio para los estudiantes
- Conceptos de riesgos y su mitigación
Opcional para estudiantes
Ninguno.
Referencias y antecedentes para estudiantes
Ninguno.
Recomendado para profesores
- Lea usted mismo el borrador del estándar
Material didáctico
- Ley de Inteligencia Artificial (legislación no desarrollada por el consorcio HCAIM)
- Norma IEEE 7000-2021 (normas no desarrolladas por el consorcio HCAIM)
Instrucciones para profesores
- Esta actividad se basa en el proceso modelo estándar IEEE 7000-2021 para abordar las preocupaciones éticas durante el diseño del sistema.
- Se espera que esta norma sea refrendada por la Ley de IA de la UE con personalización específica.
Esta norma viene con un enfoque basado en el riesgo
- Para cada equipo de 4-6 estudiantes, especifique un sistema de IA imaginario que los estudiantes necesitan desarrollar. *La idea aquí es dar a cada grupo algo diferente (según las categorías de riesgo de la Ley de IA de la UE). Ejemplos:
- vigilancia con reconocimiento facial para un aeropuerto (pista: esto está prohibido excepto en casos muy bien definidos)
- sistema automatizado de calificación de ensayos (pista: probablemente de alto riesgo, se necesita una sobrecarga humana)
- sistema de recomendación para series de televisión (bajo riesgo, pero hay disposiciones para los niños)
- bot de chat en el juego AI para un MMORPG (bajo riesgo)
- Pídales que lean el capítulo de categorización de riesgos de la Ley de IA (título II y título III)
Guía del profesorado
- Esta actividad se basa en el proceso modelo estándar IEEE 7000-2021 para abordar las preocupaciones éticas durante el diseño del sistema.
- Se espera que esta norma sea refrendada por la Ley de IA de la UE con personalización específica.
- Esta norma viene con un enfoque basado en el riesgo
- Para cada equipo de 4-6 estudiantes, especifique un sistema de IA imaginario que los estudiantes necesitan desarrollar. La idea aquí es dar a cada grupo algo diferente (según las categorías de riesgo de la Ley de IA de la UE). Ejemplos:
- vigilancia con reconocimiento facial para un aeropuerto (pista: esto está prohibido excepto en casos muy bien definidos)
- sistema automatizado de calificación de ensayos (pista: probablemente de alto riesgo, se necesita una sobrecarga humana)
- sistema de recomendación para series de televisión (bajo riesgo, pero hay disposiciones para los niños)
- bot de chat en el juego AI para un MMORPG (bajo riesgo)
- Pídales que lean el capítulo de categorización de riesgos de la Ley de IA (título II y título III)
Reconocimientos
El programa de maestría en IA centrada en el ser humano fue cofinanciado por el Mecanismo «Conectar Europa» de la Unión Europea en virtud de la subvención «CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068».