Información administrativa
Título | AI Riesgos y Gestión de Riesgos |
Duración | 90 |
Módulo | B |
Tipo de lección | Sesión interactiva |
Enfoque | Ética — IA confiable |
Tema | Riesgo |
Keywords
Riesgo de IA, Gestión de riesgos, Gestión de la resiliencia, IA explicable, IA interpretable, seguridad, resiliencia, transparencia, responsabilidad,
Objetivos de aprendizaje
- Reconocer, analizar y discutir la necesidad y el papel de las pruebas de seguridad en IA.
- Emplear documentos, como la Ley de IA, para clasificar los casos de uso en categorías de riesgo.
- Discuta en profundidad y con vocabulario común europeo sobre el riesgo de IA y cómo puede diseñarse la IA de manera segura y benevolente, de manera que no exponga a los seres humanos a riesgos inaceptables de daño, incluso cuando un comportamiento de riesgo pueda avanzar en un objetivo del sistema.
- Clasificar las obligaciones de los proveedores y usuarios en relación con la gestión de riesgos de IA.
- Discuta los requisitos para los sistemas de IA de alto riesgo según la Ley de IA.
- Elaborar y reconocer riesgos específicos y taxonomías de riesgo, relevantes a lo largo de las diferentes etapas del ciclo de vida de la IA.
Preparación prevista
Eventos de aprendizaje que se completarán antes
Ninguno.
Obligatorio para los estudiantes
- Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (AI HLEG). (8 de abril de 2019). Comisión Europea. «Directrices éticas para una IA digna de confianza.
- HCAIM Conferencia sobre Riesgo y Mitigación de Riesgos
Opcional para estudiantes
- Seminario web HCAIM sobre el enfoque europeo hacia una IA fiable, segura y confiable (disponible en YouTube)
- Seminario web HCAIM sobre el papel de la seguridad y la privacidad en el aprendizaje automático (disponible en YouTube)
Referencias y antecedentes para estudiantes
- Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (AI HLEG). (8 de abril de 2019). Comisión Europea. «Directrices éticas para una IA digna de confianza.
- HCAIM Conferencia sobre Riesgo y Mitigación de Riesgos
Recomendado para profesores
- Comisión Europea: Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas sobre inteligencia artificial (Ley de Inteligencia Artificial), 2021
- Agencia de la Unión Europea para la Ciberseguridad, Malatras, A., Dede, G., AI retos en materia de ciberseguridad: panorama de amenazas para la inteligencia artificial, Agencia Europea de Seguridad de las Redes y de la Información, 2020
- Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (AI HLEG). (8 de abril de 2019). Comisión Europea. «Directrices éticas para una IA confiable».
- Usos maliciosos y abusos de la inteligencia artificial 2020, publicación de Europol
Material didáctico
Instrucciones para profesores
Esta sesión interactiva tiene como objetivo construir un vocabulario común para que los estudiantes debatan la gestión de riesgos y riesgos relacionados con la IA, específicamente a través del enfoque basado en el riesgo de la IA de la UE. Los materiales proporcionados, así como el esquema general y el calendario de la sesión interactiva son indicativos y se presentan con el fin de guiar mejor una discusión con los estudiantes. Mientras se cumplan los objetivos de aprendizaje, se alienta a los instructores a seguir el flujo natural de la discusión.
Esquema y calendario de la sesión interactiva:
Duración | Tema | Descripción |
---|---|---|
15 minutos | Introducción | Definir el riesgo. El enfoque de la UE con respecto a la gestión del riesgo de IA. Estrategias de gestión de riesgos a lo largo del ciclo de vida de la IA. |
30 minutos | Clasificación del riesgo | Activos de IA y taxonomía de amenazas y marcos de gestión de riesgos para describir las características de diseño técnico de la IA. |
30 minutos | Atenuación del riesgo | Abordar la mitigación de riesgos utilizando casos de uso y vocabulario común, y modelos de referencia para aprovechar la discusión. |
15 minutos | Observaciones de cierre | Discusión con Estudiantes. Preguntas y respuestas. |
Dos Webinars HCAIM son particularmente relevantes para esta sesión interactiva. Estos podrían ser mostrados antes de la discusión o partes de ellos podrían ser jugados para facilitar los temas y manejar el silencio.
Reconocimientos
Esta presentación fue desarrollada por el Dr. George Sharkov y Christina Todorova en el European Software Institute — Center Eastern Europe.
La presentación utiliza diapositivas de una presentación del Dr. Mihály Héder de la Universidad de Tecnología y Economía de Budapest. Por favor, considere seguir su trabajo.
El programa de maestría en IA centrada en el ser humano fue cofinanciado por el Mecanismo «Conectar Europa» de la Unión Europea en virtud de la subvención «CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068».