[esta página en wiki][índice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Sesión interactiva: Perspectivas sobre la privacidad

Información administrativa

Título Perspectivas sobre la privacidad
Duración 60 minutos
Módulo B
Tipo de lección Sesión interactiva
Enfoque Ética — IA confiable
Tema Privacidad

Keywords

Privacidad, privacidad en IA, riesgo de IA, gestión de riesgos, gestión de la resiliencia, IA explicable, IA interpretable, seguridad, resiliencia, transparencia, responsabilidad, gestión de riesgos de IA específica de la industria,

Objetivos de aprendizaje

Preparación prevista

Eventos de aprendizaje que se completarán antes

Ninguno.

Obligatorio para los estudiantes

  • Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (AI HLEG). (8 de abril de 2019). Comisión Europea. «Directrices éticas para una IA digna de confianza.
  • HCAIM Conferencia sobre Riesgo y Mitigación de Riesgos
  • HCAIM Sesión interactiva sobre riesgos de IA y gestión de riesgos

Opcional para estudiantes

Ninguno.

Referencias y antecedentes para estudiantes

Recomendado para profesores

  • Comisión Europea: Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas sobre inteligencia artificial (Ley de Inteligencia Artificial), 2021
  • Agencia de la Unión Europea para la Ciberseguridad, Malatras, A., Dede, G., AI retos en materia de ciberseguridad: panorama de amenazas para la inteligencia artificial, Agencia Europea de Seguridad de las Redes y de la Información, 2020
  • Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (AI HLEG). (8 de abril de 2019). Comisión Europea. «Directrices éticas para una IA confiable».
  • Usos maliciosos y abusos de la inteligencia artificial 2020, publicación de Europol

Material didáctico

Ninguno.

Instrucciones para profesores

Esta sesión interactiva es una discusión dirigida por invitados sobre las perspectivas específicas de la industria sobre la IA de sectores como el marítimo, la energía, la salud, las finanzas, los seguros, la educación, la publicidad y los recursos humanos, por nombrar algunos.

El objetivo de esta sesión interactiva es ofrecer a los estudiantes una perspectiva única y relevante sobre el riesgo de IA, la gestión de riesgos y la IA de privacidad.

Para lograr esto, el profesor invitado puede optar por discutir casos de uso específicos de su práctica, o introducir problemas específicos a los que se enfrenta el sector en general.

Dos Webinars HCAIM son particularmente relevantes para esta sesión interactiva. Estos podrían ser mostrados antes de la discusión o partes de ellos podrían ser jugados para facilitar los temas y manejar el silencio.

Esquema

Los materiales proporcionados, así como el esquema general y el calendario de la sesión interactiva son indicativos y se presentan con el fin de guiar mejor una discusión con los estudiantes. Mientras se cumplan los objetivos de aprendizaje, se alienta a los profesores invitados y a los facilitadores/moderadores de la sesión interactiva a seguir el flujo natural de la discusión.

Duración Tema Descripción
10 minutos Introducción Introducción del profesor invitado, su empresa, su trabajo y las aplicaciones de IA dentro de su empresa o sector. Los casos de uso específicos de IA se introducen a través del prisma de la privacidad.
40 minutos Privacidad en IA Abordar el tema de la privacidad en IA utilizando casos de uso específicos del sector. Debate.
10 minutos Observaciones de cierre Discusión con Estudiantes. Preguntas y respuestas. Presentamos el tema del aprendizaje automático de preservación de la privacidad.

Los profesores invitados crean sus propias presentaciones y materiales, utilizando las plantillas proporcionadas por el consorcio HCAIM. Específicamente, para las presentaciones, utilizan la siguiente plantilla.

Reconocimientos

El programa de maestría en IA centrada en el ser humano fue cofinanciado por el Mecanismo «Conectar Europa» de la Unión Europea en virtud de la subvención «CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068».