[questa pagina su wiki][indice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Tutorial: Ml-Ops

Informazioni amministrative

Titolo Servire modelli di produzione
Durata 60 minuti
Modulo B
Tipo di lezione Esercitazione
Focus Pratiche — AI organizzativa
Argomento Modello di produzione di costruzione API

Parole chiave

opertion di apprendimento automatico, contenitori,

Obiettivi di apprendimento

Preparazione prevista

Eventi di apprendimento da completare prima

Nessuno.

Obbligatorio per gli studenti

Referenze e background per gli studenti

  • Aditya Khosla, Nityananda Jayadevaprakash, Bangpeng Yao e Li Fei-Fei. Nuovo set di dati per la categorizzazione dell'immagine Fine-Grained. Primo Workshop sulla Categorizzazione Visiva Fine-Grained (FGVC), IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2011.

Consigliato per gli insegnanti

  • Eseguire i compiti elencati come obbligatori e facoltativi per gli studenti.

Materiale didattico

Istruzioni per gli insegnanti

Modelli di produzione utilizzando TFX Serving

Schema/orario

Durata (min) Descrizione
20 Problema 1: Costruire un modello CNN utilizzando un sottoinsieme del set di dati dei cani di Stanford, salvando questo modello come modello Tensorflow
10 Problema 2: Distribuire il modello Tensorflow a un'API di riposo localmente (utilizzando Docker) e interrogare il modello
20 Problema 3: Distribuzione del modello Tensorflow in un'API di riposo utilizzando istanze di contenitore di Azure (ACI) (utilizzando Docker) e interrogare il modello
10 Riepilogo sul processo forward pass

Comandi Docker CLI

I seguenti comandi a riga di comando sono utilizzati in questo tutorial per eseguire i modelli.

Esegui localmente

Fase 1: Tirare il tensorflow

Docker pull tensorflow/servire: ultima-gpu

Fase 2: Esegui l'immagine

Docker run --gpus all -p 8501:8501 --nome tfserving_classifier --mount type=bind,source=c:\production\,target=/models/img_classifier -e MODEL_NAME=img_classifier -t tensorflow/servire:latest-gpu

o senza GPU

Docker run -p 8501:8501 --nome tfserving_classifier --mount type=bind,source=c:\production\,target=/models/img_classifier -e MODEL_NAME=img_classifier -t tensorflow/servire:latest-gpu

Eseguire in Azure utilizzando ACI

Fase 1: Modificare l'immagine locale per avere il modello incluso

Docker run -d --nome serve_base tensorflow/servendo:latest-gpu
Docker cp c:\produzione\ serving_base:/modelli/img_classifier 
Docker ps -a... # per ottenere l'ID 
Docker commit --change "ENV MODEL_NAME img_classifier" &id va qui> tensorflow_dogs_gpu 
Docker uccide servendo_base 

Fase 2: Distribuire l'immagine in Azure ACI

Docker login azzurro
Docker contesto crea aci deleteme 
Docker contesto usa deleteme 
Docker run -p 8501:8501 kquille/tensorflow_dogs_gpu:kq 

Passo3 Accesso ai registri ACI, indirizzo IP, quindi arrestare e rimuovere il servizio ACI =====

Docker logs jolly-ride
Docker ps 
Docker stop jolly-ride 
Docker rm jolly-ride 

Riconoscimenti

Keith Quille (TU Dublino, Tallaght Campus)

Il programma Human-Centered AI Masters è stato co-finanziato dal meccanismo per collegare l'Europa dell'Unione europea nell'ambito della sovvenzione CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.