Administratieve informatie
Titel | AI Risico’s en Risicobeheer |
Looptijd | 90 |
Module | B |
Type les | Interactieve sessie |
Focus | Ethisch — betrouwbare AI |
Onderwerp | Risico |
Sleutelwoorden
AI Risk,Risk Management,Resilience Management,Explainable AI, Interpretable AI, Security,Resilience,Transparency,Accountability,
Leerdoelen
- Herkennen, analyseren en bespreken van de noodzaak en de rol van beveiligingstests in AI.
- Gebruik documenten, zoals de AI-wet, om use cases in risicocategorieën te classificeren.
- Diepgaande en gemeenschappelijke Europese woordenschat over AI-risico’s bespreken en hoe AI veilig en welwillend kan worden ontworpen, op manieren die mensen niet blootstellen aan onaanvaardbare risico’s op schade, zelfs wanneer risicovol gedrag een systeemdoelstelling kan bevorderen.
- Classificeer de verplichtingen van aanbieders en gebruikers met betrekking tot AI-risicobeheer.
- Bespreek de vereisten voor AI-systemen met een hoog risico volgens de AI-wet.
- Specifieke risico’s en risicotaxonomieën uit te werken en te erkennen, die relevant zijn voor de verschillende fasen van de AI-levenscyclus.
Verwachte voorbereiding
Leren van gebeurtenissen die moeten worden voltooid voordat
Geen.
Verplicht voor studenten
- Deskundigengroep op hoog niveau inzake kunstmatige intelligentie (AI HLEG). (8 april 2019). Europese Commissie. „Ethiekrichtlijnen voor betrouwbare AI.
- HCAIM-lezing over risico- en risicobeperking
Optioneel voor studenten
- HCAIM Webinar over de Europese aanpak naar betrouwbare, veilige en betrouwbare AI (beschikbaar op YouTube)
- HCAIM Webinar over de rol van beveiliging en privacy in machine learning (beschikbaar op YouTube)
Referenties en achtergronden voor studenten
- Deskundigengroep op hoog niveau inzake kunstmatige intelligentie (AI HLEG). (8 april 2019). Europese Commissie. „Ethiekrichtlijnen voor betrouwbare AI.
- HCAIM-lezing over risico- en risicobeperking
Aanbevolen voor docenten
- Europese Commissie: Voorstel voor een verordening van het Europees Parlement en de Raad tot vaststelling van geharmoniseerde regels inzake artificiële intelligentie (wet inzake artificiële intelligentie), 2021
- Agentschap van de Europese Unie voor cyberbeveiliging, Malatras, A., Dede, G., AI cybersecurity challenges: dreigingslandschap voor artificiële intelligentie, Europees Agentschap voor netwerk- en informatiebeveiliging, 2020
- Deskundigengroep op hoog niveau inzake kunstmatige intelligentie (AI HLEG). (8 april 2019). Europese Commissie. „Ethiekrichtlijnen voor betrouwbare AI”.
- Kwaadwillig gebruik en misbruik van artificiële intelligentie 2020, publicatie van Europol
Lesmateriaal
Instructies voor docenten
Deze interactieve sessie is bedoeld om een gemeenschappelijke woordenschat op te bouwen voor studenten om risico- en risicobeheer met betrekking tot AI te bespreken, met name door middel van de EU-risicogebaseerde benadering van AI. De verstrekte materialen, evenals de algemene schets en het schema van de interactieve sessie zijn indicatief en gepresenteerd om een discussie met de studenten beter te begeleiden. Zolang de leerdoelen worden gehaald, worden instructeurs aangemoedigd om de natuurlijke stroom van de discussie te volgen.
Overzicht en schema van de interactieve sessie:
Looptijd | Onderwerp | Omschrijving |
---|---|---|
15 minuten | Introductie | Het definiëren van risico’s. De aanpak van de EU ten aanzien van AI-risicobeheer. Risicomanagementstrategieën gedurende de gehele levenscyclus van AI. |
30 minuten | Het classificeren van risico’s | AI-activa en dreigingstaxonomie- en risicobeheerkaders om technische ontwerpkenmerken voor AI te beschrijven. |
30 minuten | Risicobeperkende risico’s | Het benaderen van risicobeperking met behulp van use cases en gemeenschappelijke woordenschat, en referentiemodellen om de discussie te benutten. |
15 minuten | Slotopmerkingen | Discussie met studenten. Vragen en antwoorden. |
Twee HCAIM Webinars zijn bijzonder relevant voor deze interactieve sessie. Deze kunnen voorafgaand aan de discussie worden getoond of delen ervan kunnen worden afgespeeld om onderwerpen te vergemakkelijken en stilte te beheren.
Erkenningen
Deze presentatie is ontwikkeld door Dr. George Sharkov en Christina Todorova aan het European Software Institute — Center Eastern Europe.
De presentatie maakt gebruik van dia’s van een presentatie van Dr. Mihály Héder aan de Budapest University of Technology and Economics. Overweeg om zijn werk te volgen.
Het Human-Centered AI Masters-programma werd mede gefinancierd door de Connecting Europe Facility van de Europese Unie in het kader van de subsidie CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.