Διοικητικές πληροφορίες
Τίτλος | Φροντιστήριο: Θεμελιώδης της βαθιάς μάθησης |
Διάρκεια | 180 λεπτά (60 λεπτά ανά φροντιστήριο) |
Ενότητα | Β |
Είδος μαθήματος | Φροντιστήριο |
Εστίαση | Τεχνική — Βαθιά Μάθηση |
Θέμα | Εμπρόσθια και οπίσθια αναπαραγωγή |
Λέξεις-κλειδιά
μπροστινή διάδοση, οπισθοπολλαπλασιασμός, συντονισμός υπερπαραμέτρων,
Μαθησιακοί στόχοι
- ο μαθητής κατανοεί την έννοια της προωθητικής διάδοσης
- ο φοιτητής παίρνει άποψη για το πώς να αντλήσει backppagation
- ο μαθητής μπορεί να εφαρμόσει backpropagation
- ο μαθητής μαθαίνει τον τρόπο ρύθμισης των υπερπαραμέτρων
Αναμενόμενη προετοιμασία
Μαθησιακές εκδηλώσεις που πρέπει να ολοκληρωθούν πριν
Υποχρεωτικό για τους φοιτητές
- John D Kelleher και Brain McNamee. (2018), Fundamentals of Machine Learning for Predictive Data Analytics, MIT Press.
- Ο Μάικλ Νίλσεν. (2015), Neural Networks and Deep Learning (Νευρωνικά δίκτυα και βαθιά μάθηση), 1. Αποφασιστικότητα Τύπος, San Francisco CA ΗΠΑ.
- Charu C. Aggarwal. (2018), Neural Networks and Deep Learning (Νευρωνικά δίκτυα και βαθιά μάθηση), 1. Σπρίνγκερ
- Αντόνιο Γκούλι, Σουτζίτ Παλ. Βαθιά μάθηση με Keras, Packt, [ISBN: 9781787128422].
Προαιρετικό για Φοιτητές
- Πολλαπλασιασμός πινάκων
- Ξεκινώντας με τον Numpy
- Γνώση γραμμικής και λογιστικής παλινδρόμησης
Αναφορές και υπόβαθρο για τους μαθητές
Καμία.
Συνιστάται για εκπαιδευτικούς
Καμία.
Υλικό μαθήματος
Καμία.
Οδηγίες για τους εκπαιδευτικούς
Αυτή η Εκδήλωση Μάθησης αποτελείται από τρία σύνολα μαθημάτων που καλύπτουν θεμελιώδη θέματα βαθιάς μάθησης. Αυτή η σειρά μαθημάτων αποτελείται από την παροχή μιας επισκόπησης μιας κάρτας προς τα εμπρός, την παραγωγή της οπισθοπολλαπλασιασμού και τη χρήση του κώδικα για να παρέχει μια επισκόπηση για τους μαθητές σχετικά με το τι κάνει κάθε παράμετρος, και πώς μπορεί να επηρεάσει τη μάθηση και τη σύγκλιση ενός νευρωνικού δικτύου:
- Πολλαπλασιασμός προς τα εμπρός: Παραδείγματα πένας και χαρτιού, και παραδείγματα python που χρησιμοποιούν Numpy (για τα βασικά στοιχεία) και Keras δείχνουν ένα υψηλού επιπέδου module (η οποία χρησιμοποιεί Tensorflow 2.X).
- Παραγωγή και εφαρμογή οπισθοπολλαπλασιασμού: Παραδείγματα πένας και χαρτιού, και παραδείγματα python που χρησιμοποιούν Numpy (για τα βασικά στοιχεία) και Keras δείχνουν ένα υψηλού επιπέδου module (η οποία χρησιμοποιεί Tensorflow 2.X).
- Ρύθμιση υπερπαράμετρου: Παραδείγματα Keras που επισημαίνουν παραδείγματα διαγνωστικών σχεδιαγραμμάτων με βάση τις επιπτώσεις για την αλλαγή συγκεκριμένων υπερπαραμέτρων (χρησιμοποιώντας ένα παράδειγμα HCAIM σύνολο δεδομένων σύνολα δεδομένων για τη διδασκαλία της ηθικής ΤΝ (Σύνολο δεδομένων απογραφής).
Σημειώσεις για παράδοση (σύμφωνα με τις διαλέξεις)
- Χρήση του Sigmoid στο εξωτερικό στρώμα και της MSE ως συνάρτηση απώλειας.
- Με περιορισμούς, επιλέχθηκε μια μοναδική προσέγγιση/τοπολογία/πρόβλημα. Συνήθως, κάποιος θα ξεκινήσει με την παλινδρόμηση για ένα προς τα εμπρός πέρασμα (με MSE ως συνάρτηση απώλειας), και για την εξαγωγή οπισθοπολλαπλασιασμού (έτσι έχει μια συνάρτηση γραμμικής ενεργοποίησης στο στρώμα εξόδου, όπου αυτό μειώνει την πολυπλοκότητα της παραγωγής της συνάρτησης οπισθοπολλαπλασιασμού), Στη συνέχεια, θα μετακινούνταν συνήθως σε μια συνάρτηση δυαδικής ταξινόμησης, με σιγμοειδές στο στρώμα εξόδου, και μια δυαδική συνάρτηση απώλειας σταυροειδούς εντέρου. Με χρονικούς περιορισμούς, αυτό το σύνολο διαλέξεων θα χρησιμοποιήσει τρεις διαφορετικές συναρτήσεις ενεργοποίησης, αλλά θα χρησιμοποιήσει ένα πλαίσιο προβλημάτων παλινδρόμησης. Για να προσθέσετε την πολυπλοκότητα μιας λειτουργίας σιγμοειδούς ενεργοποίησης στο στρώμα εξόδου, το πρόβλημα παλινδρόμησης που χρησιμοποιείται στις δύο πρώτες διαλέξεις αυτού του συνόλου, το παράδειγμα προβλήματος βασίζεται σε μια ομαλοποιημένη τιμή στόχου (0-1 με βάση ένα ποσοστιαίο πρόβλημα βαθμού 0-100 %), έτσι το σιγμοειδές χρησιμοποιείται ως συνάρτηση ενεργοποίησης στο στρώμα εξόδου. Αυτή η προσέγγιση επιτρέπει στους μαθητές να μεταναστεύσουν εύκολα μεταξύ παλινδρόμησης και δυαδικών προβλημάτων ταξινόμησης, αλλάζοντας απλώς τη συνάρτηση απώλειας μόνο εάν ένα δυαδικό πρόβλημα ταξινόμησης, ή εάν χρησιμοποιείται ένα μη ομαλοποιημένο πρόβλημα παλινδρόμησης, ο μαθητής απλώς αφαιρεί τη συνάρτηση ενεργοποίησης του εξωτερικού στρώματος.
- Βασικά στοιχεία είναι η εφαρμογή, χρησιμοποιώντας μια βιβλιοθήκη υψηλού επιπέδου, στην περίπτωση αυτή του ΚΕΡΑΣ μέσω της βιβλιοθήκης TensorFlow 2.X.
- Η πένα και το χαρτί είναι προαιρετικά και χρησιμοποιούνται μόνο για να δείξουν την παραγωγή και την εφαρμογή του μπροστινού περάσματος και της οπισθοπολλαπλασιασμού (χρησιμοποιώντας τα παραδείγματα από τις διαφάνειες διαλέξεων).
- Ο κώδικας Python χωρίς τη χρήση βιβλιοθηκών υψηλού επιπέδου, χρησιμοποιείται για να δείξει πόσο απλό είναι ένα νευρωνικό δίκτυο (χρησιμοποιώντας τα παραδείγματα από τις διαφάνειες διαλέξεων). Αυτό επιτρέπει επίσης τη συζήτηση σχετικά με το γρήγορο αριθμητικό/μητρικό πολλαπλασιασμό και παρουσιάζει γιατί χρησιμοποιούμε τις GPUs/TPU ως προαιρετικό στοιχείο.
- Keras και TensorFlow 2.X χρησιμοποιούνται και θα χρησιμοποιηθούν για όλα τα μελλοντικά παραδείγματα.
Φροντιστήριο 1 — Εμπρός διάδοση
Οδηγίες για τους εκπαιδευτικούς
- Αυτό το σεμινάριο θα εισαγάγει τους μαθητές στις βασικές αρχές της μελλοντικής διάδοσης για ένα τεχνητό νευρωνικό δίκτυο. Αυτό το σεμινάριο θα αποτελείται από ένα μπροστινό πέρασμα χρησιμοποιώντας στυλό και χαρτί, χρησιμοποιώντας Python με μόνο τη βιβλιοθήκη Numpy (για χειρισμό πινάκων) και στη συνέχεια χρησιμοποιώντας το KERAS.. Αυτό θα βασιστεί στη θεμελιώδη κατανόηση των συναρτήσεων ενεργοποίησης που εφαρμόζονται σε συγκεκριμένα προβληματικά πλαίσια και πώς οι συναρτήσεις ενεργοποίησης διαφέρουν στην υπολογιστική πολυπλοκότητα και την εφαρμογή από στυλό και χαρτί, σε κώδικα από την αρχή χρησιμοποιώντας Numpy και στη συνέχεια χρησιμοποιώντας μια ενότητα υψηλού επιπέδου -> Keras.
- Στους μαθητές θα παρουσιαστούν τρία προβλήματα:
- Πρόβλημα 1: (Παράδειγμα 1 από τη διάλεξη -> Εικόνα στο RHS του παρόντος WIKI) και ζήτησε να διεξαγάγει ένα πέρασμα προς τα εμπρός χρησιμοποιώντας τις ακόλουθες παραμέτρους (20 λεπτά για να ολοκληρωθεί):
- Λειτουργία ενεργοποίησης σιγμοειδούς για το κρυμμένο στρώμα
- Λειτουργία ενεργοποίησης σιγμοειδούς για το εξωτερικό στρώμα
- Λειτουργία απώλειας ΠΜΣ
- Πρόβλημα 2: (Παράδειγμα 1 από τη διάλεξη), οι μαθητές θα κληθούν (με καθοδήγηση ανάλογα με την προηγούμενη εμπειρία κωδικοποίησης) να αναπτύξουν ένα νευρωνικό δίκτυο από την αρχή χρησιμοποιώντας μόνο την ενότητα Numpy, και τα βάρη και τις λειτουργίες ενεργοποίησης από το πρόβλημα 1 (οι οποίες είναι ίδιες με το παράδειγμα 1 από τη διάλεξη (20 λεπτά για να ολοκληρωθεί).
- Πρόβλημα 3: (Παράδειγμα 1 από τη διάλεξη και χρησιμοποιώντας το ίδιο παράδειγμα αλλά τυχαία βάρη), οι μαθητές θα κληθούν (με καθοδήγηση ανάλογα με την προηγούμενη εμπειρία κωδικοποίησης) να αναπτύξουν ένα νευρωνικό δίκτυο χρησιμοποιώντας την ενότητα Tensorflow 2.X με την ενσωματωμένη ενότητα Keras, και τα βάρη και τις λειτουργίες ενεργοποίησης από το πρόβλημα 1, και στη συνέχεια χρησιμοποιώντας τυχαία βάρη (τα οποία είναι τα ίδια με το παράδειγμα 1 από τη διάλεξη: 20 λεπτά για να ολοκληρωθεί).
- Πρόβλημα 1: (Παράδειγμα 1 από τη διάλεξη -> Εικόνα στο RHS του παρόντος WIKI) και ζήτησε να διεξαγάγει ένα πέρασμα προς τα εμπρός χρησιμοποιώντας τις ακόλουθες παραμέτρους (20 λεπτά για να ολοκληρωθεί):
- Οι υποστόχοι για αυτά τα τρία προβλήματα, είναι να συνηθίσουν οι μαθητές στη δομή και την εφαρμογή των θεμελιωδών εννοιών (συναρτήσεις ενεργοποίησης, τοπολογία και λειτουργίες απώλειας) για βαθιά μάθηση.
Χρόνος: 60 λεπτά
Διάρκεια (ελάχιστη) | Περιγραφή |
---|---|
20 | Πρόβλημα 1: Πένα και Χάρτινη εφαρμογή μιας κάρτας προς τα εμπρός (παράδειγμα από τη διάλεξη) |
20 | Πρόβλημα 2: Ανάπτυξη νευρωνικού δικτύου από την αρχή χρησιμοποιώντας Numpy (παράδειγμα από τη διάλεξη) |
10 | Πρόβλημα 3: Ανάπτυξη νευρωνικού δικτύου από τη χρήση του Κερά (παράδειγμα από τη διάλεξη με καθορισμένα βάρη και τυχαία βάρη) |
10 | Ανακεφαλαιοποίηση στη διαδικασία μπροστινής διέλευσης |
Φροντιστήριο 2 — Παραγωγή και εφαρμογή της οπίσθιας διάδοσης
Οδηγίες για τους εκπαιδευτικούς
- Αυτό το σεμινάριο θα εισαγάγει τους μαθητές στις βασικές αρχές του αλγορίθμου μάθησης για ένα τεχνητό νευρωνικό δίκτυο. Αυτό το σεμινάριο θα αποτελείται από την παραγωγή του αλγορίθμου backpropagation χρησιμοποιώντας στυλό και χαρτί, στη συνέχεια την εφαρμογή του αλγορίθμου backpropagation για τρεις διαφορετικές λειτουργίες ενεργοποίησης κρυφού στρώματος (Sigmoid, Tan H και ReLu), χρησιμοποιώντας Python με μόνο τη βιβλιοθήκη Numpy (για χειρισμό πινάκων) και στη συνέχεια χρησιμοποιώντας KERAS. Αυτό θα βασιστεί στη θεμελιώδη κατανόηση των ποικίλων συναρτήσεων ενεργοποίησης όταν ένα νευρωνικό δίκτυο μαθαίνει και πώς οι συναρτήσεις ενεργοποίησης διαφέρουν στην υπολογιστική πολυπλοκότητα και την εφαρμογή από στυλό και χαρτί, σε κώδικα από την αρχή χρησιμοποιώντας Numpy και στη συνέχεια χρησιμοποιώντας μια ενότητα υψηλού επιπέδου -> Keras.
- Σημείωση: Η τοπολογία είναι η ίδια με τη Διάλεξη 1/Tutorial 1, αλλά τα βάρη και οι εισροές είναι διαφορετικές, μπορείτε φυσικά να χρησιμοποιήσετε τα ίδια βάρη.
- Στους μαθητές θα παρουσιαστούν τέσσερα προβλήματα (το πρώτο είναι προαιρετικό ή ως πρόσθετο υλικό):
- Πρόβλημα 1: Η παραγωγή του αλγορίθμου οπισθοπολλαπλασιασμού (χρησιμοποιώντας τη συνάρτηση Sigmoid για τις συναρτήσεις εσωτερικής και εξωτερικής ενεργοποίησης και MSE ως συνάρτηση απώλειας), θα ζητηθεί από τους μαθητές να αντλήσουν τον τύπο οπισθοπολλαπλασιασμού (20 λεπτά για να ολοκληρωθεί).
- Πρόβλημα 2: Οι μαθητές θα εφαρμόσουν τρεις λειτουργίες ενεργοποίησης για μια ενιαία ενημέρωση βάρους (SGD backpropagation), χρησιμοποιώντας στυλό και χαρτί για (20 λεπτά):
- Σιγμοειδές (κρυφό στρώμα), σιγμοειδές (εξωτερική στιβάδα) και MSE
- Tan H (Κρυφό στρώμα), Sigmoid (εξωτερική στρώση) και MSE
- ReLU (Κρυφό στρώμα), Sigmoid (εξωτερική στρώση) και MSE
- Πρόβλημα 3: Οι μαθητές θα κληθούν (με καθοδήγηση ανάλογα με την προηγούμενη εμπειρία κωδικοποίησης) να αναπτύξουν ένα νευρωνικό δίκτυο από την αρχή χρησιμοποιώντας μόνο την ενότητα Numpy, και τα βάρη και τις λειτουργίες ενεργοποίησης όπου παρέχεται η επιλογή από οποιαδήποτε κρυφή λειτουργία ενεργοποίησης στρώματος για να ενημερώσετε τα βάρη χρησιμοποιώντας SGD (20 λεπτά για να ολοκληρωθεί).
- Πρόβλημα 4: Οι μαθητές θα κληθούν (με καθοδήγηση ανάλογα με την προηγούμενη εμπειρία κωδικοποίησης) να αναπτύξουν ένα νευρωνικό δίκτυο χρησιμοποιώντας την ενότητα Tensorflow 2.X με την ενσωματωμένη ενότητα Keras, και τα βάρη και τις λειτουργίες ενεργοποίησης, και στη συνέχεια χρησιμοποιώντας τυχαία βάρη για να ολοκληρώσουν μία ή περισσότερες ενημερώσεις βάρους. Παρακαλούμε όχι επειδή η Keras χρησιμοποιεί μια ελαφρά διαφορετική απώλεια ΠΜΣ, η απώλεια μειώνεται ταχύτερα στο παράδειγμα της Keras.
- Keras MSE = απώλεια = τετράγωνο(y_true — y_pred)
- Φροντιστήριο MSE = απώλεια = (τετράγωνο(y_true — y_pred))*0.5
- Οι υποστόχοι για αυτά τα τρία προβλήματα, είναι να πείσουν τους μαθητές να κατανοήσουν τον αλγόριθμο οπισθοπολλαπλασιασμού, να τον εφαρμόσουν έτσι ώστε για τον συντονισμό των υπερμετρητών, οι μαθητές να είναι σε θέση να κατανοήσουν καλύτερα τα φαινόμενα υπερπαράμετρου.
Χρόνος: 60 λεπτά
Διάρκεια (ελάχιστη) | Περιγραφή |
---|---|
20 (προαιρετικό) | Πρόβλημα 1: παραγωγή του τύπου οπισθοπολλαπλασιασμού χρησιμοποιώντας τη συνάρτηση Sigmoid για τις συναρτήσεις εσωτερικής και εξωτερικής ενεργοποίησης και MSE ως συνάρτηση απώλειας (προαιρετική) |
20 | Πρόβλημα 2: Οι μαθητές θα εφαρμόσουν τρεις λειτουργίες ενεργοποίησης για μια ενιαία ενημέρωση βάρους (SGD backpropagation), χρησιμοποιώντας στυλό και χαρτί για (20 λεπτά): |
20 | Πρόβλημα 3: Οι μαθητές θα αναπτύξουν ένα νευρωνικό δίκτυο από την αρχή χρησιμοποιώντας μόνο την ενότητα Numpy, όπου ο χρήστης μπορεί να επιλέξει από οποιαδήποτε από τις τρεις κρυμμένες λειτουργίες ενεργοποίησης στρώματος όπου ο κώδικας μπορεί να προδιαμορφώσει την οπίσθια αναπαραγωγή |
10 | Πρόβλημα 4: Οι μαθητές θα χρησιμοποιήσουν την ενότητα Tensorflow 2.X με την ενσωματωμένη ενότητα Keras, προδιαμορφωμένη πίσω διάδοση χρησιμοποιώντας SGD. |
10 | Ανακεφαλαιοποίηση στη διαδικασία μπροστινής διέλευσης |
Tutorial 3 — Υπερπαραμετρικός συντονισμός
Οδηγίες για τους εκπαιδευτικούς
- Αυτό το σεμινάριο θα εισαγάγει τους μαθητές στις βασικές αρχές της υπερπαραμετρικής τύλιξης για ένα τεχνητό νευρωνικό δίκτυο. Αυτό το σεμινάριο θα αποτελείται από την παρακολούθηση πολλαπλών υπερπαραμέτρων και στη συνέχεια την αξιολόγηση χρησιμοποιώντας τις ίδιες διαμορφώσεις μοντέλων με τη διάλεξη (διάλεξη 3). Αυτό το σεμινάριο θα επικεντρωθεί στη συστηματική τροποποίηση των υπερπαραμέτρων και στην αξιολόγηση των διαγνωστικών γραφικών (χρησιμοποιώντας απώλεια — αλλά αυτό θα μπορούσε εύκολα να τροποποιηθεί για την ακρίβεια, καθώς αποτελεί πρόβλημα ταξινόμησης) χρησιμοποιώντας το σύνολο δεδομένων απογραφής. Στο τέλος αυτού του μαθήματος (τα παραδείγματα βήμα προς βήμα) οι μαθητές θα πρέπει να ολοκληρώσουν μια πρακτική με πρόσθετη αξιολόγηση της δικαιοσύνης (με βάση την αξιολόγηση της απόδοσης υποσύνολο).
- Σημειώσεις:
- Υπάρχει προεπεξεργασία στο σύνολο δεδομένων (που περιλαμβάνεται στο σημειωματάριο), ωστόσο, αυτό είναι το ελάχιστο για να πάρει το σύνολο δεδομένων για να συνεργαστεί με το ANN. Αυτό δεν είναι ολοκληρωμένο και δεν περιλαμβάνει καμία αξιολόγηση (προκατάληψη/δίκαιο).
- Θα χρησιμοποιήσουμε διαγνωστικά πλοκάμια για να αξιολογήσουμε την επίδραση του υπερπαράμετρου tunning και ειδικότερα την εστίαση στην απώλεια, όπου θα πρέπει να σημειωθεί ότι η μονάδα που χρησιμοποιούμε για να σχεδιάσουμε την απώλεια είναι matplotlib.pyplot, έτσι ο άξονας κλιμακώνεται. Αυτό μπορεί να σημαίνει ότι οι σημαντικές διαφορές μπορεί να μην φαίνονται σημαντικές ή το αντίστροφο κατά τη σύγκριση της απώλειας της εκπαίδευσης ή των δεδομένων δοκιμής.
- Παρουσιάζονται ορισμένες ελευθερίες για το ικρίωμα, όπως η χρήση των Επόχων πρώτα (σχεδόν ως τεχνική τακτοποίησης), διατηρώντας παράλληλα το μέγεθος της παρτίδας σταθερό.
- Για την παροχή σαφών παραδειγμάτων (π.χ. υπερπροσαρμογή), ενδέχεται να έχουν συμπεριληφθεί ορισμένες πρόσθετες τροποποιήσεις σε άλλους υπερπαραμετρητές για την παροχή σαφών διαγνωστικών παραδειγμάτων.
- Μόλις εντοπιστεί μια λογική χωρητικότητα και βάθος, αυτό καθώς και άλλοι υπερπαράμετροι, κλειδώνονται για να ακολουθήσουν παραδείγματα όπου είναι δυνατόν.
- Τέλος, μερικές από τις κυψέλες μπορεί να χρειαστούν κάποιο χρόνο για να εκπαιδευτούν, ακόμη και με πρόσβαση GPU.
- Οι μαθητές θα παρουσιαστούν με διάφορα βήματα για το σεμινάριο:
- Βήμα 1: Κάποια βασική προεπεξεργασία για το σύνολο δεδομένων απογραφής ενηλίκων
- Βήμα 2: Χωρητικότητα και κλίση βάθους (συμπεριλαμβανομένων των ακόλουθων παραδειγμάτων):
- Καμία σύγκλιση
- Ανεπαρκής εξοπλισμός
- Υπερπροσαρμογή
- Σύγκλιση
- Βήμα 3: Εποχές (πέρα και υπό κατάρτιση — χωρίς να την εισάγουν ως επίσημη τεχνική νομιμοποίησης)
- Βήμα 4: Λειτουργίες ενεργοποίησης (όσον αφορά την απόδοση — τον χρόνο εκπαίδευσης και σε ορισμένες περιπτώσεις απώλεια)
- Βήμα 5: Ποσοστά μάθησης (συμπεριλαμβανομένων των ακόλουθων παραδειγμάτων):
- SGD Βανίλια
- SGD με αποσύνθεση ρυθμού μάθησης
- SGD με δυναμική
- Προσαρμοστικά ποσοστά μάθησης:
- RMSProp
- AdaGrad
- Αδάμ
- Οι δευτερεύοντες στόχοι για αυτά τα πέντε μέρη είναι να παρέχουν στους μαθητές παραδείγματα και εμπειρία στην τυλίγοντας υπερπαράμετρους και να αξιολογούν τα αποτελέσματα χρησιμοποιώντας διαγνωστικές πλοκές.
Χρόνος: 60 λεπτά
Διάρκεια (ελάχιστη) | Περιγραφή |
---|---|
5 | Προεπεξεργασία των δεδομένων |
10 | Χωρητικότητα και βάθος tunning (κάτω και πάνω από την τοποθέτηση) |
10 | Εποχές (κάτω και πάνω από την εκπαίδευση) |
10 | Μεγέθη παρτίδας (για καταστολή θορύβου) |
10 | Λειτουργίες ενεργοποίησης (και οι επιπτώσεις τους στην απόδοση — χρόνος και ακρίβεια) |
10 | Ποσοστά μάθησης (vanilla, LR Decay, Momentum, Adaptive) |
5 | Ανακεφαλαιώστε σε ορισμένους βασικούς υπερπαράμετρους (ReLu, Adam) και την κούνια άλλων (ικανότητα και βάθος). |
Αναγνωρίσεις
Keith Quille (TU Dublin, Tallaght Campus) http://keithquille.com
Το πρόγραμμα Μάστερ τεχνητής νοημοσύνης με επίκεντρο τον άνθρωπο συγχρηματοδοτήθηκε από τον μηχανισμό «Συνδέοντας την Ευρώπη» της Ευρωπαϊκής Ένωσης στο πλαίσιο της επιχορήγησης CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.