Административна информация
Дял | Надеждно машинно обучение |
Продължителност | 60 мин. |
Модул | Б |
Вид на урока | Лекция |
Фокус | Етичен — надежден ИИ |
Тема | Конфиденциалност, почтеност и проблеми с наличността в машинното обучение |
Ключови думи
Конфиденциалност, интегритет, наличност, отравяне, бягство, примери за сблъсък, примери за спонгиформи, задни врати, укриване на обяснения, порожност, търговия,
Учебни цели
- Получаване на общ преглед на основните проблеми със сигурността на машинното обучение
- Разбиране на основните въпроси, свързани с поверителността, целостта и достъпността на машинното обучение
- Разграничаване на атаките от укриване, отравяне и задни вратички
- Разбиране на атаките от отравяне с чист етикет
- Получаване на интуицията на състезателните примери и нейното практическо въздействие чрез примери от реалния живот
- Демонстриране на атаките за наличност чрез изкуствено конструирани примери за гъба
- Разбиране на заплахата от избягване на обяснимостта
- Разбиране на компромиса между стабилност и качество на модела
- Научете принципите на одита на ИИ (насърчаване)
Очаквана подготовка
Обучение на събития, които трябва да бъдат завършени преди
Задължително за студентите
- Основи в машинното обучение
Незадължително за студенти
Няма.
Референции и фон за студенти
- Уебинар на HCAIM относно европейския подход към надежден, безопасен и надежден ИИ (наличен в YouTube)
- Състезателни примери и състезателно обучение
- Враждебност — теория и практика
- Отравяния срещу поддържащи векторни машини
- Практични атаки на Black-Box срещу машинното обучение
- Към оценка на устойчивостта на невронните мрежи
- Сертифицирана престъпност чрез рандомизирано изглаждане
- Гъба Примери: Енергийно-латентни атаки в невронните мрежи
- Обясненията могат да бъдат манипулирани и геометрията е виновна
- Отровни жаби! Целенасочени атаки за отравяне с чист етикет върху невронните мрежи
- Цялостен анализ на поверителността на задълбоченото обучение
- Поверителност на данните и надеждно машинно обучение
Препоръчва се за учители
Материали за уроци
Инструкции за учители
Този курс предоставя преглед на сигурността на системите за машинно обучение. Той се фокусира върху атаки, които са полезни за одитиране на моделите за машинно самообучение. На учителите се препоръчва да използват примери от реалния живот, за да покажат практическото значение на тези уязвимости, особено по въпроси, свързани с неприкосновеността на личния живот, чието практическо значение често се обсъжда и счита за пречка за човешкото развитие. Студентите трябва да разберат, че рисковете за неприкосновеността на личния живот също могат да забавят напредъка (страните, изправени пред рискове за поверителността, може да не са склонни да споделят своите данни). Студентите могат да придобият разбиране за различните рискове за сигурността и неприкосновеността на личния живот на моделите на ML и могат допълнително да развият повече практически умения за одит на модели на ML в съответните практически учебни събития, които са:
- Практически: Повишаване на сигурността и стабилността на ML
- Практически: Прилагане на одитни рамки
- Практически: Прилагане и оценка на техники за запазване на неприкосновеността на личния живот
- Практически: Рамки за одит на неприкосновеността на личния живот и защитата на данните
Очертаване
Продължителност (мин) | Описание | Концепции |
---|---|---|
5 | Триада на ЦРУ | ЦРУ (поверителност, взаимосвързаност, наличност) в машинното обучение |
15 | Поверителност | Атака за членство, извличане на данни от обучението. Кражба на модел. |
20 | Почтеност | Укриване, отравяне (целеви, нецелеви), Избягване на обяснимост, Задни вратички. |
15 | Достъпност | Генериране на гъба примери. |
5 | Изводи |
Потвърждения
Магистърската програма по ИИ, насочена към човека, беше съфинансирана от Механизма за свързване на Европа на Европейския съюз под формата на безвъзмездни средства № CEF-TC-2020—1 Digital Skills 2020-EU-IA-0068.