Informações administrativas
Titulo | Aprendizagem fidedigna da máquina |
Duração | 60 min |
Módulo | B |
Tipo de aula | Palestra |
Foco | Ética — Inteligência Artificial de confiança |
Tópico | Problemas de confidencialidade, integridade e disponibilidade na aprendizagem automática |
Palavras-chave
Confidencialidade, Integridade, Disponibilidade, Intoxicação, Evasão,Exemplos adversários,Exemplos de esponja, Portas traseiras, Evasão de Explicabilidade,Robustness,Trade-off,
Objetivos de aprendizagem
- Obter uma visão geral dos principais problemas de segurança da aprendizagem automática
- Compreender as principais questões de confidencialidade, integridade e disponibilidade da aprendizagem automática
- Distinguir a evasão, o envenenamento e os ataques das portas traseiras
- Compreender os ataques de envenenamento de rótulos limpos
- Obter a intuição de exemplos contraditórios e seu impacto prático através de exemplos da vida real
- Demonstrar os ataques de disponibilidade por exemplos de esponja artificialmente construídos
- Compreender a ameaça da evasão à explicabilidade
- Compreender o compromisso entre robustez e qualidade do modelo
- Conheça os princípios da auditoria (robustness) da IA
Preparação prevista
Eventos de aprendizagem a serem concluídos antes
Obrigatório para os Estudantes
- Conceitos básicos na aprendizagem de máquinas
Facultativo para Estudantes
Nenhuma.
Referências e antecedentes para estudantes
- Webinar HCAIM sobre a abordagem europeia para uma IA fiável, segura e fiável (disponível no YouTube)
- Exemplos Adversários e Formação Adversarial
- A robustez adversária — Teoria e Prática
- Ataques de envenenamento contra máquinas vetoriais de apoio
- Ataques práticos da Black-Box contra a aprendizagem de máquinas
- Para avaliar a robustez das redes neurais
- Robustness Adversarial Certificada via Fumante Aleatório
- Exemplos de esponjas: Ataques à Latência Energética às Redes Neurais
- As explicações podem ser manipuladas e a geometria é a culpada
- Sapos venenosos! Ataques de envenenamento de rótulos limpos direcionados a redes neuronais
- Análise de privacidade abrangente da aprendizagem profunda
- Privacidade de dados e aprendizagem de máquinas de confiança
Recomendado para professores
Materiais das aulas
Instruções para os professores
Este curso fornece uma visão geral da segurança dos sistemas de aprendizagem automática. Concentra-se em ataques que são úteis para auditar os modelos de aprendizagem de máquina de robustez. Recomenda-se aos professores que usem exemplos da vida real para demonstrar a relevância prática destas vulnerabilidades, especialmente para questões relacionadas com a privacidade, cuja relevância prática é frequentemente debatida e considerada como um obstáculo ao desenvolvimento humano. Os alunos devem compreender que os riscos para a privacidade também podem retardar o progresso (as partes que enfrentam riscos de confidencialidade podem estar relutantes em partilhar os seus dados). Os alunos podem compreender os diferentes riscos de segurança e privacidade dos modelos de ML e podem desenvolver mais competências práticas para auditar modelos de ML nos eventos de aprendizagem prática relacionados, que são:
- Prática: Reforçar a segurança e a robustez do BC
- Prática: Aplicar quadros de auditoria
- Prática: Aplicar e avaliar técnicas de preservação da privacidade
- Prática: Quadros de auditoria da privacidade e da proteção de dados
Esboço
Duração (min) | Descrição | Conceitos |
---|---|---|
5 | Tríade da CIA | CIA (confidencialidade, intergridade, disponibilidade) na aprendizagem automática |
15 | Confidencialidade | Ataque de associação, extração de dados de treino. Modelo a roubar. |
20 | Integridade | Evasão, Intoxicação (direcionada, não direcionada), Evadir a explicabilidade, Backdoors. |
15 | Disponibilidade | Gerar exemplos de esponjas. |
5 | Conclusões |
Agradecimentos
O programa de mestrado em IA centrado no ser humano foi cofinanciado pelo Mecanismo Interligar a Europa da União Europeia ao abrigo de subvenções CEF-TC-2020-1 Competências Digitais 2020-EU-IA-0068.