[αυτή η σελίδα στο wiki][δείκτης][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Φροντιστήριο: Ml-Ops

Διοικητικές πληροφορίες

Τίτλος Σερβίρισμα Μοντέλα Παραγωγής
Διάρκεια 60 λεπτά
Ενότητα Β
Είδος μαθήματος Φροντιστήριο
Εστίαση Πρακτική — Οργανωτική ΤΝ
Θέμα Κατασκευαστικό μοντέλο παραγωγής API

Λέξεις-κλειδιά

λειτουργία μηχανικής μάθησης, εμπορευματοκιβώτια,

Μαθησιακοί στόχοι

Αναμενόμενη προετοιμασία

Μαθησιακές εκδηλώσεις που πρέπει να ολοκληρωθούν πριν

Καμία.

Υποχρεωτικό για τους φοιτητές

Αναφορές και υπόβαθρο για τους μαθητές

  • Aditya Khosla, Nityananda Jayadevaprakash, Bangpeng Yao και Li Fei-Fei. Νέο σύνολο δεδομένων για Fine-Grained Image Categorization. Πρώτο εργαστήριο για την ευανάγνωστη οπτική κατηγοριοποίηση (FGVC), IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2011.

Συνιστάται για εκπαιδευτικούς

  • Κάντε τις εργασίες που αναφέρονται ως υποχρεωτικές και προαιρετικές για τους μαθητές.

Υλικό μαθήματος

Οδηγίες για τους εκπαιδευτικούς

Μοντέλα παραγωγής που χρησιμοποιούν TFX Serving

Σχεδιάγραμμα/χρονοδιάγραμμα

Διάρκεια (ελάχιστη) Περιγραφή
20 Πρόβλημα 1: Δημιουργία ενός μοντέλου CNN χρησιμοποιώντας ένα υποσύνολο του συνόλου δεδομένων σκύλων του Στάνφορντ, αποθηκεύοντας αυτό το μοντέλο ως μοντέλο Tensorflow
10 Πρόβλημα 2: Ανάπτυξη του μοντέλου Tensorflow σε ένα υπόλοιπο API τοπικά (χρησιμοποιώντας Docker) και αναζήτηση του μοντέλου
20 Πρόβλημα 3: Ανάπτυξη του μοντέλου Tensorflow σε ένα API υπόλοιπου χρησιμοποιώντας Azure Container Instances (ACI) (χρησιμοποιώντας Docker) και αναζήτηση του μοντέλου
10 Ανακεφαλαιοποίηση στη διαδικασία μπροστινής διέλευσης

Εντολές Docker CLI

Οι ακόλουθες εντολές διεπαφής γραμμής εντολών χρησιμοποιούνται σε αυτό το σεμινάριο για την εκτέλεση των μοντέλων.

Εκτέλεση σε τοπικό επίπεδο

Βήμα 1: Τράβηγμα τανυσματικής ροής

Docker τραβήξτε τη ροή/εξυπηρέτηση:τελευταίος-gpu

Βήμα 2: Εκτελέστε την εικόνα

Docker run --gpus όλα -p 8501:8501 --όνομα tfserving_classifier --mount type=bind,source=c:\production\,target=/models/img_classifier -e MODEL_NAME=img_classifier -t tensorflow/serving:latest-gpu

ή χωρίς GPU

Docker run -p 8501:8501 --όνομα tfserving_classifier --mount type=bind,source=c:\production\,target=/models/img_classifier -e MODEL_NAME=img_classifier -t tensorflow/serving:latest-gpu

Εκτελέστε στο Azure χρησιμοποιώντας ACI

Βήμα 1: Τροποποιήστε την τοπική εικόνα για να συμπεριλάβετε το μοντέλο

Docker run -d --όνομα service_base tensorflow/serving:lastest-gpu
Docker cp c:\production\server_base:/models/img_classifier 
Docker ps -aр р# για να πάρει id 
Docker υποβολή --αλλαγή «ENV MODEL_NAME img_classifier» <id πηγαίνει εδώ> tensorflow_dogs_gpu 
Docker Kill Σέρβις_base 

Βήμα 2: Ανάπτυξη εικόνας στο Azure ACI

Docker login azure
το πλαίσιο Docker δημιουργεί aci διαγραφή 
το περιβάλλον Docker χρησιμοποιεί διαγραφή 
Docker run -p 8501:8501 kquille/tensorflow_dogs_gpu:kq 

Βήμα3 Πρόσβαση στα αρχεία καταγραφής ACI, διεύθυνση IP και, στη συνέχεια, διακοπή και κατάργηση της υπηρεσίας ACI =====

Docker κορμοτεμαχια jolly-ride
Docker ps 
Docker stop jolly-ride 
Docker rm jolly-ride 

Αναγνωρίσεις

Keith Quille (TU Dublin, Tallaght Campus)

Το πρόγραμμα Μάστερ τεχνητής νοημοσύνης με επίκεντρο τον άνθρωπο συγχρηματοδοτήθηκε από τον μηχανισμό «Συνδέοντας την Ευρώπη» της Ευρωπαϊκής Ένωσης στο πλαίσιο της επιχορήγησης CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.