Przegląd programu

W naszym dążeniu do stworzenia programu Human-Centred AI Master, konsorcjum HCAIM stosuje się do definicji AI HLEG: „Zorientowane na człowieka podejście do sztucznej inteligencji ma na celu zapewnienie, by wartości ludzkie miały kluczowe znaczenie dla tego, w jaki sposób systemy sztucznej inteligencji są opracowywane, wdrażane, wykorzystywane i monitorowane, zapewniając poszanowanie praw podstawowych.

Aby odpowiedzieć na wymagania tej definicji, program obejmuje techniczne, etyczne i praktyczne elementy sztucznej inteligencji. Zaprojektowaliśmy nasze treści wokół trzech faz cyklu życia MLOps – opracowywania, wdrażania i konserwacji modeli uczenia maszynowego, tworząc w ten sposób trzy podstawowe moduły zgodne z wyżej wymienionymi fazami ML-Ops: Modelowanie (moduł A), wdrażanie (moduł B) i ocena (moduł C). Dodaliśmy czwarty moduł (D) Graduation, aby umożliwić studentom pokazanie, że mogą samodzielnie rozwiązywać wyzwania proponowane przez branżę w oparciu o aktualne potrzeby i wymagania związane z dziedziną sztucznej inteligencji skoncentrowanej na człowieku.

Jest to wizualizowane w poniższej tabeli.

Moduł A Moduł B Moduł C Moduł D
Techniczne

Podstawy AI

Zaawansowana AI:
Głębokie uczenie się
Przyszłość AI

Projekt pracy magisterskiej

Praktyczne Modelowanie AI AI w akcji:
Sztuczna inteligencja organizacyjna
Społecznie odpowiedzialny AI
Etyczne Podstawy etyki Wiarygodna sztuczna inteligencja Zgodność, legalność i człowieczeństwo

Ta strona zawiera wszystkie wydarzenia edukacyjne, które składają się na Mistrza Sztucznej Inteligencji Human Centered. Wszystkie wydarzenia edukacyjne, w tym materiały uzupełniające, zostaną udostępnione w języku angielskim na stronie internetowej HCAIM i można je przetłumaczyć na dowolny język UE za pomocą narzędzia eTranslation Unii Europejskiej. Do celów tego podglądu jedno wydarzenie edukacyjne modułu A, jedno wydarzenie edukacyjne modułu B, dwa wydarzenia edukacyjne modułu C i wytyczne dla pracy magisterskiej, a także dwa przykłady tematów prac są już w pełni dostępne w języku angielskim na tej stronie podglądu (i można je przetłumaczyć na dowolny z języków UE za pomocą narzędzia eTranslation Unii Europejskiej).

Ponadto przegląd programu programu HCAIM, moduł A Cele uczenia się, przegląd planów lekcji modułu A, a także moduł A wydarzenie edukacyjne „Lecture- Introduction to Human-Centered AI” są już dostępne we wszystkich językach UE za pośrednictwem tej strony podglądu.  Aby zobaczyć tłumaczenia tych części programu HCAIM, wybierz dowolny z poszczególnych języków na dole tej strony.

Wszystkie materiały są dostępne na licencji Creative Commons Attribution-NonCommercial-NoDerivates 4.0 (CC BY-NC-ND 4.0)

Modelowanie (moduł A)

Pierwszy moduł, a mianowicie Modelowanie (moduł A), koncentruje się na pierwszej fazie cyklu życia MLOps i jest związany z najniższym poziomem dojrzałości stosowania uczenia maszynowego (ML) w organizacjach: modelowanie danych. Obejmuje on działania, które stanowią podstawę stosowania ML, takie jak ekstrakcja danych, analiza danych, przygotowanie danych, szkolenie modelowe oraz (głównie ręczne) walidacja i ocena modeli.

Na tym etapie skupiono się na prawidłowej analizie i modelowaniu danych w celu osiągnięcia celów biznesowych, a automatyzacja (np. CI/CD) jest w niewielkim stopniu wykorzystywana (np. CI/CD), która jest dodawana tylko w drugiej fazie MLOps (deployment – Moduł B). Działania modelujące charakteryzują się często metodą manualną, opartą na skryptach i interaktywną metodą, za pomocą której przeprowadza się analizę danych, przygotowanie, szkolenie modelowe i walidację. Aby zachować przegląd różnych modeli, parametrów i wyborów, które są eksperymentowane, stosuje się śledzenie eksperymentów.

Z punktu widzenia etycznego ważne jest, aby w fazie modelowania poświęcić wystarczająco dużo czasu i uwagi na poznanie celów klienta, mapowanie interesariuszy i zbadanie, w jaki sposób wpływają na poszczególne wartości tych interesariuszy (i rozpoznanie ewentualnych konfliktów między nimi). Aspekty takie jak przejrzystość, włączenie społeczne, bezpieczeństwo i prywatność mają w tym kontekście ogromne znaczenie. Oczywiście należy również zwrócić uwagę na społeczną i moralną potrzebę celów klienta. Ponadto ważne jest (w odpowiednim czasie) zapoznanie się z możliwymi uprzedzeniami lub uprzedzeniami w dostępnych danych, rozpoznanie możliwych konsekwencji tych uprzedzeń i znalezienie środków łagodzących w celu radzenia sobie z tymi uprzedzeniami.

Efekty uczenia się

  • Student ocenia różne techniki ML, aby dokonać uzasadnionego wyboru, dopasowując nabyte wymagania klienta i wdrażając prototyp wybranej techniki ML, aby doradzić w rozwiązaniu danego problemu modelowania danych.

  • Wynik uczenia się 1
  • Student argumentuje, wykorzystując podstawowe ramy etyczne, w jaki sposób można rozwiązać dylematy moralne i ocenia możliwe konsekwencje istniejących uprzedzeń w danych i wpływ planowanych środków łagodzących w celu przeciwdziałania skutkom tych uprzedzeń.

  • Efekty uczenia się 2
  • Student stosuje ilościowe i jakościowe metody badawcze w celu naukowego uzasadnienia swoich wyborów podczas rozważań etycznych i podejmowania prototypu.

  • Efekty uczenia się 3

Plany lekcji dla modułu A (Modelling)

Ogólne AI

  • Wykład: Wprowadzenie historyczne do naukowych modeli wyjaśniających
  • Wykład: Zrozumienie danych

Eksploracja danych do uczenia maszynowego

  • Samouczek: Zrozumienie danych
  • Wykład: Analiza danych rozpoznawczych II
  • Samouczek: Analiza danych rozpoznawczych
  • Wykład: Wnioskowanie i uogólnienie
  • Samouczek: Wnioskowanie i uogólnienie

Podstawy uczenia maszynowego

  • Wykład: Ocena modelu
  • Samouczek: Ocena modelu
  • Wykład: Montaż i optymalizacja modelu
  • Praktyczne: Montaż i optymalizacja modelu

Teoria decyzji

  • Wykład: Teoria decyzji
  • Samouczek: Teoria decyzji
  • Wykład: Sieci decyzyjne
  • Samouczek: Sieci decyzyjne

Nauka o danych

  • Wykład: Proces analizy danych
  • Sesja laboratoryjna: Platformy
  • Wykład: Przygotowanie i eksploracja danych
  • Sesja laboratoryjna: Przygotowanie i eksploracja danych

Nadzorowane uczenie maszynowe

  • Wykład: Regresja liniowa
  • Sesja laboratoryjna: Regresja liniowa
  • Wykład: Drzewa decyzyjne
  • Sesja laboratoryjna: Drzewa decyzyjne
  • Wykład: SVM i jądra
  • Sesja laboratoryjna: SVM i jądra
  • Wykład: Sieci neuronowe

Nienadzorowane uczenie maszynowe

  • Wykład: Nauka nienadzorowana
  • Sesja laboratoryjna: Nauka nienadzorowana

Ml aplikacji

  • Wykład: Przetwarzanie języka naturalnego
  • Sesja laboratoryjna: Przetwarzanie języka naturalnego

Etyka ogólna

Ramy etyczne

  • Sesja interaktywna: Ramy etyczne
  • Wykład: Utylitaryzm
  • Sesja interaktywna: Utylitaryzm
  • Wykład: Etyka cnoty
  • Sesja interaktywna: Etyka cnoty
  • Wykład: Etyka obowiązkowa
  • Sesja interaktywna: Etyka obowiązkowa
  • Wykład: Teoria sprawiedliwości

Zaawansowana etyka

  • Wykład: Teorie kontraktów społecznych
  • Wykład: Zasady sprawiedliwości

Etyka stosowana

  • Wykład: Wzornictwo wrażliwe na wartość
  • Sesja interaktywna: Projektowanie wrażliwe na wartość
  • Wykład: Polityka prywatności
  • Wykład: Etyka systemów wsparcia decyzyjnego
  • Wykład: Podejmowanie decyzji i uprzedzenia (poznawcze)

Wdrożenie (moduł B)

Moduł Deployment (moduł B) koncentruje się na drugiej fazie cyklu rozwojowego MLOps; rozmieszczenie. Po fazie eksploracji danych modelowania (patrz Moduł A – Modelowanie) następuje integracja rozwiązania ML z systemami biznesowymi. Teraz ważne jest, aby zacząć myśleć o architekturze ML i o tym, jak ona gra razem z istniejącymi systemami (legacy). Aby uzyskać rzeczywiste korzyści z zautomatyzowanych rozwiązań ML, należy wprowadzić rurociągi; z jednej strony, aby móc radzić sobie z ciągłymi i żywymi dostawami danych (przetwarzanie strumieniowe), a z drugiej strony, aby połączyć wyniki modelu ML z innymi systemami.

Ponadto moduł B zwiększa złożoność technologii sztucznej inteligencji poprzez przejście w kierunku (wykorzystywania) sieci neuronowych i głębokiego uczenia się. Główną zaletą tych bardziej złożonych modeli jest to, że są one bardziej elastyczne i wszechstronne niż techniki wprowadzone w module A – Modelowanie. Jednak ważnymi wadami tych technik jest to, że są one bardziej złożone (rozumieć i skonfigurować) i opaquer. W tym kontekście leży ważny dylemat etyczny w stosowaniu (zaawansowanych) technik sztucznej inteligencji: w jaki sposób nadal rozumiesz, co oblicza rozwiązanie AI i czy odbywa się to we właściwy sposób? Zwiększenie przejrzystości wdrażania rozwiązań w zakresie sztucznej inteligencji oraz możliwość określenia możliwych zagrożeń i złagodzenia tych zagrożeń są ważnymi (społecznymi) tematami tego modułu.

Efekty uczenia się

  • Student ocenia możliwe opcje integracji zaawansowanej techniki sztucznej inteligencji, takiej jak Deep and Reinforcement Learning, a autor jednostronicowego raportu opartego na prototypie, który został opracowany z uwzględnieniem ograniczeń i wpływów na istniejące systemy ICT i obiekty danych klienta, które uzyskano we współpracy np. z architektami lub programistami ICT.

  • Wynik uczenia się 1
  • Student ocenia potencjalne ryzyko i testuje stopień przejrzystości (w tym możliwość interpretacji, odtwarzalności i wyjaśnialności) wybranego wdrożenia AI/ML i projektuje rozwiązania wykorzystujące techniki zwiększające wgląd i przejrzystość wśród zainteresowanych stron (tzw. techniki Wyjaśnialna AI (XAI)) w celu usunięcia niedociągnięć w tym zakresie w porównaniu z wymogami społecznymi i specyficznymi dla klienta.

  • Efekty uczenia się 2
  • Student formułuje projekt badawczy dla naukowo solidnego (zorientowanego na praktykę) projektu badawczego związanego z przypadkiem firmy, formułując odpowiednie, spójne, funkcjonalne pytanie badawcze, biorąc pod uwagę stosowane metody badawcze, które mają być stosowane oraz ustanawiając precyzyjne, odpowiednie i krytyczne ramy teoretyczne.

  • Efekty uczenia się 3

Plany lekcji dla modułu B (wdrożenie)

Podstawy głębokiego uczenia się

  • Wykład: Podstawy głębokiego uczenia się
  • Samouczek: Podstawy głębokiego uczenia się
  • Praktyczne: Podstawy głębokiego uczenia się

Optymalizacja głębokiego uczenia się

  • Wykład: Regularyzacja
  • Samouczek: Regularyzacja
  • Wykład: Przetwarzanie wsadowe
  • Samouczek: Przetwarzanie wsadowe

Zastosowania głębokiego uczenia się

  • Wykład: Budowa wykresów obliczeniowych, nowoczesne architektury
  • Wykład: Konwolucyjne sieci neuronowe
  • Samouczek: Konwolucyjne sieci neuronowe
  • Praktyczne: Konwolucyjne sieci neuronowe
  • Wykład: Nawracające sieci neuronowe
  • Wykład: Sieci transformatorowe
  • Samouczek: CNN i transformatory do obrazów
  • Wykład: Ramy sprzętowe i programowe do głębokiego uczenia się

MLOps

  • Wykład: Ml-Ops
  • Samouczek: Ml-Ops
  • Praktyczne: Ml-Ops
  • Wykład: Cykl życia ml-Ops
  • Praktyczne: Cykl życia ml-Ops

Wdrożenie sztucznej inteligencji

  • Wykład: Technologia aplikacji
  • Praktyczne: Technologia aplikacji
  • Samouczek: Architektura danych
  • Sesja interaktywna: Architektura danych
  • Praktyczne: Technologie oparte na Hadoop

Jakość rozwoju i wdrażania

  • Wykład: CI/CD
  • Samouczek: CI/CD

Ogólne Wytłumaczalne AI

  • Wykład: Wprowadzenie Ogólne Wyjaśnialna AI
  • Wykład: Sztuczna inteligencja dla użytkowników końcowych
  • Praktyczne: Ćwicz z modelami XAI 1
  • Praktyczne: Ćwicz z modelami XAI 2
  • Wykład: Najnowocześniejsze rozwiązania XAI

Polityka prywatności

  • Wykład: Wprowadzenie do prywatności i ryzyka
  • Sesja interaktywna: Perspektywy prywatności
  • Praktyczne: Audyt ram prywatności i ochrony danych
  • Wykład: Prywatność i uczenie maszynowe
  • Praktyczne: Stosowanie i ocena technik ochrony prywatności

Bezpieczeństwo i solidność

  • Wykład: Bezpieczeństwo i solidność
  • Praktyczne: Zastosowanie ram audytu
  • Praktyczne: Zwiększenie bezpieczeństwa i odporności ML

Ryzyko

  • Wykład: Ograniczenie ryzyka i ryzyka
  • Sesja interaktywna: Ograniczenie ryzyka i ryzyka
  • Praktyczne: Ograniczenie ryzyka i ryzyka

Ocena (moduł C)

Moduł oceny (moduł C) koncentruje się na aspektach oceny rozwoju sztucznej inteligencji, w tym zarówno na społecznych aspektach produktu sztucznej inteligencji, jak i na opracowaniu oceny potencjalnych przyszłych kierunków, które AI może przyjąć, z uwzględnieniem trendów technologicznych; społecznie odpowiedzialnej sztucznej inteligencji; zgodność, a także zapewnienie, że element ludzki jest zawsze obecny w projektowaniu, rozwoju i ocenie systemów sztucznej inteligencji.

W ramach przyszłości sztucznej inteligencji omawiana jest analiza poziomu wdrożenia sztucznej inteligencji w różnych branżach, a także sposób, w jaki sztuczna inteligencja jest dostosowana do różnych dziedzin. Badanie odpowiedzialnej społecznie sztucznej inteligencji obejmuje sposób, w jaki sztuczna inteligencja wpływa na jednostki i różne grupy społeczne. Jako kluczowa część modułu koncentruje się na prawach, politykach i kodeksach postępowania związanych ze sztuczną inteligencją (z naciskiem na kwestie takie jak wyjaśnialność i zaufanie), a także na procesach kontroli jakości i zarządzania jakością w celu oceny wyników inicjatyw w zakresie sztucznej inteligencji.

Efekty uczenia się

  • Student rozwija uznanie najnowocześniejszych podejść do sztucznej inteligencji i uczenia maszynowego, a także zrozumienie, w jaki sposób sztuczna inteligencja jest wykorzystywana w różnych dziedzinach i jak ocenić potencjalne kierunki sztucznej inteligencji może iść w przyszłości.

  • Wynik uczenia się 1
  • Student pokazuje dobrze zdefiniowane podejście do skanowania konsekwencji, biorąc pod uwagę takie kwestie, jak ocena potencjalnego wpływu nowych technologii na jednostki i społeczeństwo, koncentrując się w szczególności na mniejszościach i grupach zmarginalizowanych, a także potencjalnych wpływach na środowisko.

  • Efekty uczenia się 2
  • Student wykazuje zdolność do stosowania w pełni przegubowej metodologii badawczej z etyką osadzoną na wszystkich etapach, ze świadomością kontekstowego charakteru konkretnych podejść, które powinny być stosowane, o czym będą informowane studia przypadków objętych tym modułem.

  • Efekty uczenia się 3

Plany lekcji dla modułu C (ocena)

Wprowadzenie

  • Wykład: Wprowadzenie do odrodzenia SI i ML
  • Wykład: Wykład gościnny na temat przyszłości AI

Otwarte problemy i wyzwania

  • Wykład: Wykład gościnny na temat uczenia maszynowego (XAI)
  • Praktyczne: Uczenie maszynowe (XAI)
  • Wykład: Inkluzywność, prywatność i przyczynowość
  • Sesja interaktywna: Inkluzywność, prywatność i przyczynowość
  • Wykład: Zaufanie, Normatyczność i Model Drift
  • Sesja interaktywna: Zaufanie, Normatyczność i Model Drift
  • Wykład: Uogólnienie i sztuczna inteligencja ogólna (AGI). Otwarte problemy vs wyzwania

Postęp w modelach ML poprzez soczewkę HC. Badanie zorientowane na wynik

  • Wykład: Pół-nadzorowane i nienadzorowane uczenie się
  • Wykład: Modele generacyjne, transformacja głębokiego uczenia się i hybrydowe modele uczenia się
  • Wykład: Teoria sfederowanego uczenia się (profilowanie i personalizacja)
  • Wykład: Nauka sfederowana – postępy i otwarte wyzwania
  • Praktyczne: Federated Learning – Trenuj głębokie modele
  • Wykład: Kompresja modelu – Edge Computing
  • Praktyczne: Kompresja modelu – Edge Computing
  • Wykład: Zautomatyzowana optymalizacja parametrów

Nowe oceny modeli HCAI – badanie oparte na dyskusji

  • Wykład: Znaczenie funkcji, modele zaufania i kwalifikacja zaufania
  • Praktyczne: Znaczenie funkcji, modele zaufania i kwalifikacja zaufania
  • Wykład: Probabilistyczne opisy modeli ML, logika subiektywna, znaczenie permutacji
  • Praktyczne: Częściowe uzależnienie, indywidualne oczekiwania warunkowe (ICE), LIME, DeepLIFT, SHAP

Filozoficzna dyskusja na temat przyszłości technologii sztucznej inteligencji

  • Wykład: Wykład gościnny na temat obliczeń kwantowych
  • Sesja interaktywna: Przenikanie SI i Singularity AI
  • Sesja interaktywna: Ruch praw robota
  • Sesja interaktywna: Biologia człowiek-maszyna/Technologie neuromorficzne
  • Sesja interaktywna: Życie z robotami
  • Sesja interaktywna: Interakcje człowiek-maszyna

Prawodawstwo UE i międzynarodowe/ramy dotyczące danych, sztucznej inteligencji, praw człowieka i równości

  • Wykład: Przegląd etycznych, zawodowych i prawnych aspektów zastosowań HCAI
  • Sesja interaktywna: Etyczne, profesjonalne i prawne aspekty zastosowań HCAI
  • Wykład: Dane i ich wyzwania – EU GDPR, US COPPA, HIPPA
  • Wykład: Dane i ich wyzwania – przepisy dotyczące danych, pozyskiwanie danych i perspektywa HCAI
  • Sesja interaktywna: Dane i ich wyzwania. Jak RODO wpływa na rozwiązania AI
  • Praktyczne: Dane i ich wyzwania. Ćwiczenie w zakresie regulacji sztucznej inteligencji
  • Wykład: Prawodawstwo UE w zakresie praw człowieka
  • Sesja interaktywna: Prawodawstwo UE w dziedzinie praw człowieka – studium przypadku
  • Wykład: Wniosek UE dotyczący rozporządzenia w sprawie zastosowań HCAI
  • Sesja interaktywna: Wniosek UE dotyczący rozporządzenia w sprawie sztucznej inteligencji – studium przypadku
  • Praktyczne: Skuteczność wniosku UE dotyczącego rozporządzenia w sprawie sztucznej inteligencji
  • Wykład: Mocne i ograniczenia istniejących praw Głębsze nurkowanie

Zarządzanie danymi, audyt i ocena

  • Wykład: Bezpieczeństwo i zgodność danych, linia danych i zarządzanie nimi
  • Wykład: Zarządzanie i zarządzanie, kluczowe zainteresowane strony i zarządzanie danymi osobowymi
  • Praktyczne: Wspólne role i krzyżowanie między zarządzaniem danymi a zespołami AI
  • Praktyczne: Badanie linii danych, wyzwań i potencjalnego wpływu zespołów AI

Polityka i ramy – cykl życia

  • Wykład: DS, AI, ML Life Cycle – podejście skoncentrowane na człowieku
  • Praktyczne: Wdrożenie cyklu życia i test na sprawiedliwość

Zakres społecznie odpowiedzialnej sztucznej inteligencji

  • Wykład: Pozytywne i negatywne efekty zewnętrzne
  • Sesja interaktywna: Efekty zewnętrzne związane z dobrym byciem
  • Sesja interaktywna: Negatywne czynniki zewnętrzne – tragedia gazowa Bhopal – studium przypadku
  • Sesja interaktywna: Ceny produktów vs odpady fabryczne – perspektywa AI
  • Wykład: Efekty zewnętrzne w ścisłym sensie mikroekonomicznym

Społeczna odpowiedzialność biznesu (ISO 26000) – podczas korzystania z systemu HCAI

  • Wykład: Uczciwe praktyki operacyjne – rekrutacja i błędy w monitorowaniu sztucznej inteligencji
  • Sesja interaktywna: Podejmowanie decyzji opartych na sztucznej inteligencji – rekrutacja i promocja
  • Sesja interaktywna: Podejmowanie decyzji w oparciu o monitorowanie sztucznej inteligencji
  • Sesja interaktywna: Interwencje człowieka dotyczące niekononstycznych i/lub dobrych decyzji dotyczących sztucznej inteligencji
  • Sesja interaktywna: Transfer kontroli z powrotem i forth między człowiekiem a AI
  • Sesja interaktywna: Aspekty fizyczne podczas pracy ze sztuczną inteligencją – stres, lęk, depresja
  • Wykład: Problemy konsumentów – bańki filtracyjne, przechowywanie danych, monitorowanie sztucznej inteligencji, uczciwe praktyki
  • Sesja interaktywna: Problemy konsumentów – bańki filtracyjne, przechowywanie danych, monitorowanie sztucznej inteligencji, uczciwe praktyki
  • Sesja interaktywna: Rozwój społeczności – ocena skutków społecznych przed rozpoczęciem prac nad projektem AI

Aspekty społeczno-prawne AI

  • Sesja interaktywna: Kto jest odpowiedzialny? — Odpowiedzialność za produkt, problemy z prawami autorskimi

AI dla wszystkich

  • Wykład: Luki ekonomiczne – Digital Divide
  • Sesja interaktywna: Luki ekonomiczne – Digital Divide w kategoriach
  • Geograficzny, techniczny, finansowy i polityczny
  • Sesja interaktywna: Jak AI wpływa na ludzkie zachowanie – pozytywne i negatywne
  • Sesja interaktywna: Wpływ na środowisko – ślad węglowy
  • Sesja interaktywna: Wpływ na edukację – Auto AI podejmowanie decyzji
  • Sesja interaktywna: Filtr bąbelkowy – polityczny, korporacyjny i geograficzny
  • Sesja interaktywna: Wojna oparta na AI i pokój międzynarodowy

Ukończenie studiów (moduł D)

Moduł Graduation (moduł D) odzwierciedla podstawową zasadę programu HCAIM, który opiera się na koncepcji uczenia się opartego na projektach (PBL). Celem tego modułu jest umiejscowienie projektu ukończenia studiów (tworzenie profesjonalnego produktu) centralnie w trajektorii uczenia się studenta. W ramach projektu studiów magisterskich studenci pokazują, że mogą samodzielnie rozwiązywać wyzwania proponowane przez branżę w oparciu o aktualne potrzeby i wymagania, biorąc pod uwagę zarówno techniczne, jak i etyczne aspekty danej sprawy.

Każda praca jest rozpatrywana lokalnie, z wewnętrznym przełożonym (profesorem z Uniwersytetu, w którym student realizuje stopień) i zewnętrznym przełożonym należącym do partii proponującej pracę (jeśli w ogóle). Ten ostatni aspekt, mimo że nie jest obowiązkowy, jest rygorystycznie realizowany. Stroną proponującą może być MŚP, Centrum Doskonałości lub inny uniwersytet, zarówno na poziomie krajowym, jak i międzynarodowym. Oczekuje się, że strony proponujące zapewnią pracę zarówno krajową, jak i międzynarodową (tj. pracę dyplomową zorganizowaną w uniwersytecie z tego samego kraju lub z zagranicy).

Efekty uczenia się

  • Student rozpoznaje i zastanawia się nad cyklem życia sztucznej inteligencji w realistycznym, opartym na przemyśle kontekście oraz w różnych lokalizacjach, scenariuszach i przypadkach użycia.

  • Wynik uczenia się 1
  • Student demonstruje solidną i ważną postawę badawczą poprzez projekt z dobrze zdefiniowanym interdyscyplinarnym podejściem, tworząc odpowiednie dla branży i kompetentne technologicznie rozwiązania, jednocześnie oceniając potencjalny wpływ ich pracy na jednostki i społeczeństwo

  • Efekty uczenia się 2
  • Student wykazuje profesjonalną postawę wobec komunikacji z odpowiednimi interesariuszami (np. mentorami, doradcami, rówieśnikami i klientami), postawą analityczną, etosem pracy, kompetencjami planowania, proaktywnością i samoświadomością.

  • Efekty uczenia się 3

Wytyczne do pracy

Wytyczne HCAIM Thesis Proposals

Wytyczne te mają na celu wsparcie stron, które zamierzają zaproponować nową tezę.

Szablon pracy HCAIM

Zobacz szablon HCAIM Thesis tutaj.

Wytyczne etyczne dotyczące tez HCAIM

Plagiat, produkcja danych i manipulacja obrazem

Plagiat jest nie do przyjęcia. Plagiat obejmuje kopiowanie tekstu, pomysłów, obrazów lub danych z innego źródła, w tym własnych publikacji, bez przypisywania oryginalnego źródła.

Ponowne użycie tekstu skopiowanego z innego źródła musi znajdować się między cudzysłowem a oryginalnym źródłem. Jeśli wcześniejsze badania zainspirowały projekt badania lub strukturę lub język rękopisu, badania te muszą być wyraźnie cytowane.

Pliki obrazów nie mogą być manipulowane ani korygowane w żaden sposób, który mógłby prowadzić do błędnej interpretacji informacji dostarczonych przez oryginalny obraz. Nieregularna manipulacja obejmuje 1) wprowadzenie, ulepszanie, przesuwanie lub usuwanie funkcji z oryginalnego obrazu, 2) grupowanie obrazów, które powinny być przedstawione oddzielnie lub 3) modyfikowanie kontrastu, jasności lub równowagi kolorów w celu zaciemnienia, wyeliminowania lub wzmocnienia niektórych informacji.

Prezentowane wyniki nie mogą być niewłaściwie dobrane, manipulowane, ulepszane ani sfabrykowane. Obejmuje to 1) wyłączenie punktów danych w celu zwiększenia znaczenia wniosków, 2) wytwarzanie danych, 3) wybór wyników, które potwierdzają konkretny wniosek kosztem sprzecznych danych, 4) celowy dobór narzędzi analitycznych lub metod na poparcie konkretnego wniosku (w tym p-hacking).

Badania z udziałem ludzi, zwierząt lub roślin

Przy składaniu sprawozdań na temat badań, które dotyczą ludzi, materiału ludzkiego, tkanek ludzkich lub danych dotyczących ludzi, strona proponująca musi zapewnić, że dochodzenia zostały przeprowadzone zgodnie z zasadami Deklaracji Helsińskiej z 1975 r., zmienionej w 2013 r. Wszelkie konsekwencje związane z naruszeniem tego aspektu zostaną całkowicie przypisane stronie proponującej, ani konsorcjum HCAIM, ani studentowi.

Tezy, praca z liniami komórkowymi powinny określać pochodzenie dowolnych linii komórkowych. W przypadku ustalonych linii komórkowych należy podać pochodzenie, a także podać odniesienia do opublikowanego artykułu lub źródła handlowego. Jeżeli użyto wcześniej nieopublikowanych linii komórkowych de novo, w tym linii uzdolnionych z innego laboratorium, należy podać szczegółowe informacje na temat instytucjonalnej komisji odwoławczej lub komisji etycznej, a jeżeli linia jest pochodzenia ludzkiego, musi zostać potwierdzona pisemnie świadoma zgoda.

Wszystkie tematy potencjalnie pochodzące z jakichkolwiek badań powodujących jakiekolwiek szkody dla zwierząt są zabronione. Wszystkie wytyczne stosowane w odniesieniu do ludzi powinny być przestrzegane (w miarę możliwości) również w odniesieniu do zwierząt.

Badania eksperymentalne na roślinach (hodowanych lub dzikich), w tym zbieranie materiału roślinnego, muszą być zgodne z wytycznymi instytucjonalnymi, krajowymi lub międzynarodowymi. Zalecamy, aby tezy były zgodne z Konwencją o różnorodności biologicznej oraz Konwencją o handlu dzikimi zwierzętami i roślinami gatunków zagrożonych wyginięciem.

Płeć, płeć, etniczność, religia i inne uprzedzenia w badaniach

Zachęca się do przestrzegania wytycznych dotyczących płci i równości płci w badaniach – SAGER oraz do uwzględniania w stosownych przypadkach kwestii płci i płci. Terminy płeć (atrybut biologiczny) i płeć (kształtowane przez uwarunkowania społeczne i kulturowe) powinny być stosowane ostrożnie, aby uniknąć pomieszania obu terminów. Teza powinna również opisać (w „w tle”) czy można spodziewać się różnic między płciami i/lub płciami; przedstawić, w jaki sposób płeć i/lub płeć zostały uwzględnione w projekcie badania; w stosownych przypadkach przekazuje zdezagregowane dane według płci lub płci; i omówienie odpowiednich wyników. Jeżeli analiza płci i/lub płci nie została przeprowadzona, uzasadnienie powinno być podane w dyskusji.

Podobne rozważania dotyczą wszystkich innych form uprzedzeń, w tym (i nie tylko) etniczności i religii. Dla tych pierwszych przypominamy, że ludzie nie mają ras, a jedynie etniczność.

Jeśli teza koncentruje się na stronniczości, uzasadnienie jej musi być wyjaśnione od początku.

Konflikt interesów

Studenci muszą unikać zawierania umów ze sponsorami studiów, zarówno dla zysku, jak i non-profit, które zakłócają dostęp do wszystkich danych badania lub które zakłócają ich zdolność do analizowania i interpretowania danych oraz do samodzielnego przygotowywania pracy magisterskiej, kiedy i gdzie wybiorą.

Studenci muszą zidentyfikować i zadeklarować wszelkie osobiste okoliczności lub interesy, które mogą być postrzegane jako niewłaściwie wpływające na reprezentację lub interpretację zgłoszonych wyników badań. Przykłady potencjalnych konfliktów interesów obejmują między innymi interesy finansowe (takie jak członkostwo, zatrudnienie, biura konsultacyjne, własność akcji/akcje, honoraria, dotacje lub inne finansowanie, płatne zeznania ekspertów i uzgodnienia dotyczące udzielania licencji patentowych) oraz interesy niefinansowe (takie jak relacje osobiste lub zawodowe, powiązania, przekonania osobiste).

Każda rola sponsorów finansujących w projektowaniu badania, w gromadzeniu, analizie lub interpretacji danych, na piśmie manuskryptu lub w decyzji o opublikowaniu wyników musi być zadeklarowana z wyprzedzeniem.

Polityka cytowania

  • Studenci powinni upewnić się, że tam, gdzie materiał jest pobierany z innych źródeł (w tym z własnego opublikowanego pisma), źródło jest wyraźnie cytowane i w stosownych przypadkach uzyskuje się pozwolenie.
  • Uczniowie nie powinni angażować się w nadmierne samodzielne cytowanie własnej pracy.
  • Uczniowie nie powinni kopiować referencji z innych publikacji, jeśli nie przeczytali cytowanej pracy.
  • Studenci nie powinni preferencyjnie cytować publikacji własnych lub swoich przyjaciół, rówieśników lub instytucji.
  • Studenci nie powinni cytować reklam ani materiałów reklamowych.

Wytyczne etyczne dla recenzentów

Potencjalny konflikt interesów

Recenzenci proszeni są o poinformowanie rady HCAIM, jeśli mają konflikt interesów, który może zaszkodzić sprawozdaniu z przeglądu, w sposób pozytywny lub negatywny. Zarząd sprawdzi jak najdokładniej przed zaproszeniem recenzentów; niemniej jednak oczekuje się i docenia współpracę recenzentów w tej sprawie.

Poufność i anonimowość

Recenzenci muszą zachować poufność treści pracy dyplomowej, w tym abstrakcyjnej, poufnej. Muszą poinformować zarząd HCAIM, jeśli chcą, aby kolega zakończył przegląd w ich imieniu.

Matrix i plan łagodzenia ryzyka dla HCAIM

Ten szablon pozwala opiekunowi wspierać studenta w identyfikowaniu i radzeniu sobie z problemami. Jednocześnie strona proponująca pracę dyplomową zostanie poproszona o opracowanie tego szablonu.

Wszystkie etapy i rezultaty realizacji proponowanego projektu badawczego powinny zostać uwzględnione we wniosku dotyczącym projektu. Studenci są również zobowiązani do przygotowania matrycy ryzyka, która obejmuje ryzyka, które mogą zagrozić osiągnięciu tych wyników i dostarczyć plany awaryjne w celu ograniczenia nakreślonego ryzyka. Poniżej przedstawiono przykład matrycy ryzyka i planu ograniczania ryzyka. W razie potrzeby proszę podać dodatkowe ryzyko:

Ryzyko Dotkliwość Prawdopodobieństwo Łagodzenie skutków
Nie udało się zebrać docelowych danych w czasie Wysoka Niskie Projekt rozpocznie badanie otwarcie dostępnych zasobów. Zbadaj opcje pozyskiwania syntetycznych lub wstępnie dostępnych danych publicznych podobnych do danych docelowych.
Niewystarczające finansowanie zasobów Średni Średni Poszukiwane będą alternatywne źródła finansowania.
Cele badawcze/Projekt nadmiernie ambitne Średni Niskie Regularnie sprawdzaj cele projektu i ureguluj wyniki projektu w oparciu o proces przeglądu.
(Zawyżone) Wymagane są duże ilości
dodatkowych
szkoleń
Średni Niskie Zostanie podjęta uprzednia zgoda. Cele projektu będą aktualizowane w oparciu o czas i zasoby wykorzystane na to dodatkowe szkolenie.
Utrata danych Średni Niskie Student będzie przestrzegać odpowiednich procedur tworzenia kopii zapasowych, aby zminimalizować ryzyko.

Przykłady tematów tezy





















Przejdź do treści



Skip to content