Información administrativa
Título | Confianza, Normatividad y Modelo Drift |
Duración | 60 |
Módulo | C |
Tipo de lección | Sesión interactiva |
Enfoque | Técnico — Futuro AI |
Tema | Problemas y desafíos abiertos |
Keywords
Confianza, deriva del modelo, Normatividad,
Objetivos de aprendizaje
- Aplicar marcos de confianza a varios estudios de casos de AI/ML
- Proponer métricas de confianza para ejemplos de estudios de casos y enlaces al marco de confianza de la UE
- Discutir la normatividad digital en el contexto de estudios de casos de ejemplo
- Identificar y modelar el potencial de deriva en estudios de casos de ejemplo y proponer métricas y soluciones de deriva para reforzar la confianza en el modelo
Preparación prevista
Eventos de aprendizaje que se completarán antes
Obligatorio para los estudiantes
Opcional para estudiantes
Referencias y antecedentes para estudiantes
Recomendado para profesores
Ninguno.
Material didáctico
Instrucciones para profesores
Instigar a los estudiantes a participar en discusiones. Dirigir y guiar la discusión dentro del ámbito de los puntos de discusión. Anime a los estudiantes a centrarse en la evidencia e interrumpir si están hablando sobre los demás. Mantenga una nota de todos los puntos de discusión y comparta la pista de discusión al final de la clase. Proporcionar observaciones concluyentes de la discusión con posibles preguntas y desafíos abiertos.
Esquema
Duración (min) | Descripción |
---|---|
5 | Definición del problema |
25 | Ejemplos de deriva del modelo, Tipos de deriva de modelo |
15 | Discusión en torno a la Normatividad, Aplicación de marcos de confianza a los modelos AI/ML |
5 | Resumen de la discusión sobre la deriva del modelo y la normatividad y preguntas abiertas |
Reconocimientos
El programa de maestría en IA centrada en el ser humano fue cofinanciado por el Mecanismo «Conectar Europa» de la Unión Europea en virtud de la subvención «CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068».