[diese Seite im Wiki][Index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Tutorial: Ml-Ops

Verwaltungsinformationen

Titel Serving-Produktionsmodelle
Dauer 60 Minuten
Modulen B
Unterrichtstyp Anleitung
Fokussierung Praktisch – Organisationelle KI
Themenbereich Gebäude-Produktionsmodell API

Suchbegriffe

maschinelles Lernen, Container,

Lernziele

Erwartete Vorbereitung

Lernveranstaltungen, die vorab abgeschlossen werden müssen

Keine.

Obligatorisch für Studenten

Referenzen und Hintergründe für Studierende

  • Aditya Khosla, Nityananda Jayadevaprakash, Bangpeng Yao und Li Fei-Fei. Neuartiger Datensatz für Feingewebte Bildkategorisierung. Erster Workshop zur Fein-Grained Visual Categorization (FGVC), IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2011.

Empfohlen für Lehrer

  • Führen Sie die Aufgaben, die als obligatorisch und optional für die Schüler aufgeführt sind.

Unterrichtsmaterialien

Anleitung für Lehrer

Produktionsmodelle mit TFX Serving

Gliederung/Zeitplan

Dauer (Min.) Beschreibung
20 Problem 1: Erstellen eines CNN-Modells mit einer Teilmenge des Stanford-Hunds-Datensatzes, wobei dieses Modell als Tensorflow-Modell gespeichert wird
10 Problem 2: Bereitstellung des Tensorflow-Modells in einer Rest-API lokal (mit Docker) und Abfrage des Modells
20 Problem 3: Bereitstellung des Tensorflow-Modells für eine Rest-API mithilfe von Azure Container Instances (ACI) (mit Docker) und Abfrage des Modells
10 Rückblick auf den Forward-Pass-Prozess

Docker CLI Befehle

Die folgenden Kommandozeilenschnittstellenbefehle werden in diesem Tutorial verwendet, um die Modelle auszuführen.

Lokal ausführen

Schritt 1: Tensorflow ziehen

Docker Zug Tensorflow/serving:latest-gpu

Schritt 2: Führen Sie das Bild aus

Docker run --gpus all -p 8501:8501 --name tfserving_classifier --mount type=bind,source=c:\production\,target=/models/img_classifier -e MODEL_NAME=img_classifier -t tensorflow/serving:latest-gpus

oder ohne GPU

Docker run -p 8501:8501 --name tfserving_classifier --mount type=bind,source=c:\production\,target=/models/img_classifier -e MODEL_NAME=img_classifier -t tensorflow/serving:latest-gpu

Ausführen auf Azure mit ACI

Schritt 1: Ändern Sie das lokale Bild so, dass das Modell enthalten ist

Docker run -d --name serve_base tensorflow/serving:latest-gpu
Docker cp c:\production\ serving_base:/models/img_classifier 
Docker ps -a...# um id zu erhalten 
Docker Commit --change „ENV MODEL_NAME img_classifier“ & lt;id geht hier> tensorflow_dogs_gpu 
Docker kill serve_base 

Schritt 2: Bereitstellen von Image in Azure ACI

Docker-Login azure
Docker-Kontext erstellen aci deleteme 
Docker-Kontext verwenden deleteme 
Docker run -p 8501:8501 kquille/tensorflow_dogs_gpu:kq 

Schritt3 Zugriff auf die ACI-Protokolle, IP-Adresse, und dann stoppen und entfernen Sie den ACI-Dienst =====

Docker logs jolly-ride
Docker ps 
Docker stop jolly-ride 
Docker rm jolly-ride 

Danksagung

Keith Quille (TU Dublin, Tallaght Campus)

Das Human-Centered AI Masters-Programm wurde von der Fazilität „Connecting Europe“ der Europäischen Union im Rahmen des Zuschusses „CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068“ kofinanziert.