Información administrativa
Título | Confianza, Normatividad y Modelo Drift |
Duración | 45-60 |
Módulo | C |
Tipo de lección | Conferencia |
Enfoque | Técnico — Futuro AI |
Tema | Problemas y desafíos abiertos |
Keywords
Confianza, Normatividad, Modelo Drift,
Objetivos de aprendizaje
- Comprender la necesidad de medir la confianza en la IA
- Entender el concepto de Normatividad en contexto con Future AI
- Explique varios tipos de deriva del modelo y recomiende medidas oportunas para que los futuros sistemas de IA aborden la deriva del modelo
Preparación prevista
Eventos de aprendizaje que se completarán antes
Obligatorio para los estudiantes
- Contenido ético del módulo A
- Contenido ético del módulo B
Opcional para estudiantes
- Introducción al aprendizaje automático y a los conceptos de aprendizaje profundo impartidos en conferencias anteriores
Referencias y antecedentes para estudiantes
- Confianza e Inteligencia Artificial
- Una encuesta sobre la evaluación de la confianza basada en el aprendizaje automático
- El Valor de la Medición de la Confianza en la IA — Una Perspectiva de Sistema Sociotécnico
- Cuando la confianza se encuentra con la precisión: Explorar los efectos de múltiples indicadores de rendimiento en la confianza en los modelos de aprendizaje automático
- En AI Confiamos Incrementalmente: un Modelo Multicapa de Confianza para Analizar Interacciones de Inteligencia Humano-Artificial
- La confianza y la ética de la IA
- Directrices éticas para una IA confiable
- Agencia explicable, normativa y justificada
- Modelo Drift en Machine Learning
- Una visión unificadora del cambio de conjunto de datos en la clasificación
- ODÍN: Detección y recuperación de derivas automatizadas en Video Analytics
- Aprendizaje bajo Concept Drift: Una revisión
- Por qué la detección de deriva de datos es importante y cómo automatizarla en 5 sencillos pasos
Recomendado para profesores
Ninguno.
Material didáctico
Instrucciones para profesores
Esta conferencia debe centrarse en el concepto de confianza sobre los sistemas que emplean IA y aprendizaje automático para tomar decisiones. Debe definir la confianza y las características de la confianza junto con los agentes de confianza. La conferencia debería proporcionar un vínculo práctico con el marco de confianza de la UE propuesto para la IA. La conferencia también debe introducir el concepto de normatividad digital y el problema de la deriva del modelo, la medición y el seguimiento de la deriva del modelo en el contexto de la IA confiable y el aprendizaje automático.
El objetivo de esta conferencia es discutir el concepto de confianza en el contexto de los sistemas de IA. La conferencia debe responder a la pregunta: ¿Qué significa confiar y cómo podemos construir confianza en los sistemas de IA? La conferencia también debe discutir el concepto de normatividad en el contexto de la IA y los sistemas automatizados de toma de decisiones, agregando peso a la importancia de la confianza. Finalmente, la conferencia discutirá la deriva del modelo, los tipos de deriva del modelo, las métricas para medir la deriva del modelo y cómo lidiar con la deriva del modelo, lo que debería demostrar que la confianza debe ser monitoreada constantemente.
Esquema
Duración | Descripción | Conceptos | Actividad | Material |
---|---|---|---|---|
5 min | ¿Qué es la confianza? | Filosofía de confianza, caracterización de la confianza, agentes y pacientes de confianza, ecosistema sociotécnico, papel de la confianza en el conocimiento | Sesión enseñada y ejemplos | Material didáctico |
15 min | Tarea de investigación Confianza en la IA |
Preguntas abiertas y revisión de un artículo | Material didáctico | |
10 min | Advenimiento de la Normatividad Digital | Subjetivación, dessubjetivación, agencia justificada, agencia explicable y normativa | Sesión enseñada y ejemplos | Material didáctico |
15 min | Modelo Drift | Qué es la deriva del modelo, tipos de deriva de modelo/concepto (predicción, concepto, datos, aguas arriba), métricas de deriva (índice de estabilidad de la población, divergencia de KL, distancia de Wasserstein), lidiar con la deriva del modelo (monitorización, calidad de los datos, reciclaje, ajuste de parámetros) | Sesión enseñada y ejemplos | Material didáctico |
5 min | Conclusión | Resumen | Conclusiones | Material didáctico |
Reconocimientos
El programa de maestría en IA centrada en el ser humano fue cofinanciado por el Mecanismo «Conectar Europa» de la Unión Europea en virtud de la subvención «CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068».