Zelfstudie: Een objectdetectiemodel trainen met AutoML en Python
VAN TOEPASSING OP:Azure CLI ml extension v2 (current)Python SDK azure-ai-ml v2 (current)
In deze zelfstudie leert u hoe u een objectdetectiemodel traint met behulp van geautomatiseerde ML van Azure Machine Learning met de Azure Machine Learning CLI-extensie v2 of de Azure Machine Learning Python SDK v2. Dit objectdetectiemodel identificeert of de afbeelding objecten bevat, zoals een blik, karton, melkfles of waterfles.
Geautomatiseerde ML accepteert trainingsgegevens en configuratie-instellingen en doorloopt automatisch combinaties van verschillende functienormalisatie-/standaardisatiemethoden, modellen en hyperparameterinstellingen om het beste model te bereiken.
In deze zelfstudie schrijft u code met behulp van de Python SDK en leert u de volgende taken:
- Gegevens downloaden en transformeren
- Een geautomatiseerd machine learning-objectdetectiemodel trainen
- Hyperparameterwaarden opgeven voor uw model
- Een hyperparameter opruimen
- Uw model implementeren
- Detecties visualiseren
Vereisten
-
Als u Azure Machine Learning wilt gebruiken, hebt u een werkruimte nodig. Als u er nog geen hebt, voltooit u Resources maken die u nodig hebt om aan de slag te gaan met het maken van een werkruimte en meer informatie over het gebruik ervan.
Python 3.9 of 3.10 wordt ondersteund voor deze functie
Download en pak het *odFridgeObjects.zip gegevensbestand uit. De gegevensset wordt geannoteerd in Pascal VOC-indeling, waarbij elke afbeelding overeenkomt met een XML-bestand. Elk XML-bestand bevat informatie over waar het bijbehorende afbeeldingsbestand zich bevindt en bevat ook informatie over de begrenzingsvakken en de objectlabels. Als u deze gegevens wilt gebruiken, moet u deze eerst converteren naar de vereiste JSONL-indeling, zoals te zien is in de sectie De gedownloade gegevens converteren naar de JSONL-sectie van het notebook.
Gebruik een rekenproces om deze zelfstudie te volgen zonder verdere installatie. (Zie hoe u een rekenproces maakt.) Of installeer de CLI/SDK om uw eigen lokale omgeving te gebruiken.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
Deze zelfstudie is ook beschikbaar in de opslagplaats azureml-examples op GitHub. Als u deze wilt uitvoeren in uw eigen lokale omgeving:
- Installeer en stel CLI (v2) in en zorg ervoor dat u de
ml
extensie installeert.
- Installeer en stel CLI (v2) in en zorg ervoor dat u de
Configuratie van rekendoel
Notitie
Als u serverloze berekeningen (preview) wilt proberen, slaat u deze stap over en gaat u verder met het instellen van experimenten.
U moet eerst een rekendoel instellen dat moet worden gebruikt voor uw geautomatiseerde ML-modeltraining. Voor geautomatiseerde ML-modellen voor afbeeldingstaken zijn GPU-SKU's vereist.
In deze zelfstudie wordt gebruikgemaakt van de NCsv3-serie (met V100 GPU's) omdat dit type rekendoel meerdere GPU's gebruikt om de training te versnellen. Daarnaast kunt u meerdere knooppunten instellen om te profiteren van parallelle uitvoering bij het afstemmen van hyperparameters voor uw model.
Met de volgende code wordt een GPU-rekenkracht Standard_NC24s_v3
gemaakt met vier knooppunten.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
Maak een .yml-bestand met de volgende configuratie.
$schema: https://azuremlschemas.azureedge.net/latest/amlCompute.schema.json
name: gpu-cluster
type: amlcompute
size: Standard_NC24s_v3
min_instances: 0
max_instances: 4
idle_time_before_scale_down: 120
Als u de berekening wilt maken, voert u de volgende CLI v2-opdracht uit met het pad naar uw .yml-bestand, werkruimtenaam, resourcegroep en abonnements-id.
az ml compute create -f [PATH_TO_YML_FILE] --workspace-name [YOUR_AZURE_WORKSPACE] --resource-group [YOUR_AZURE_RESOURCE_GROUP] --subscription [YOUR_AZURE_SUBSCRIPTION]
Experiment instellen
U kunt een experiment gebruiken om uw modeltrainingstaken bij te houden.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
De naam van het experiment kan als volgt worden opgegeven met de experiment_name
sleutel:
experiment_name: dpv2-cli-automl-image-object-detection-experiment
Invoergegevens visualiseren
Zodra u de invoerafbeeldingsgegevens hebt voorbereid in JSONL-indeling (JSON Lines ), kunt u de begrenzingsvakken voor de grond waarheid voor een afbeelding visualiseren. Als u dit wilt doen, moet u ervoor zorgen dat u deze hebt matplotlib
geïnstalleerd.
%pip install --upgrade matplotlib
%matplotlib inline
import matplotlib.pyplot as plt
import matplotlib.image as mpimg
import matplotlib.patches as patches
from PIL import Image as pil_image
import numpy as np
import json
import os
def plot_ground_truth_boxes(image_file, ground_truth_boxes):
# Display the image
plt.figure()
img_np = mpimg.imread(image_file)
img = pil_image.fromarray(img_np.astype("uint8"), "RGB")
img_w, img_h = img.size
fig,ax = plt.subplots(figsize=(12, 16))
ax.imshow(img_np)
ax.axis("off")
label_to_color_mapping = {}
for gt in ground_truth_boxes:
label = gt["label"]
xmin, ymin, xmax, ymax = gt["topX"], gt["topY"], gt["bottomX"], gt["bottomY"]
topleft_x, topleft_y = img_w * xmin, img_h * ymin
width, height = img_w * (xmax - xmin), img_h * (ymax - ymin)
if label in label_to_color_mapping:
color = label_to_color_mapping[label]
else:
# Generate a random color. If you want to use a specific color, you can use something like "red".
color = np.random.rand(3)
label_to_color_mapping[label] = color
# Display bounding box
rect = patches.Rectangle((topleft_x, topleft_y), width, height,
linewidth=2, edgecolor=color, facecolor="none")
ax.add_patch(rect)
# Display label
ax.text(topleft_x, topleft_y - 10, label, color=color, fontsize=20)
plt.show()
def plot_ground_truth_boxes_jsonl(image_file, jsonl_file):
image_base_name = os.path.basename(image_file)
ground_truth_data_found = False
with open(jsonl_file) as fp:
for line in fp.readlines():
line_json = json.loads(line)
filename = line_json["image_url"]
if image_base_name in filename:
ground_truth_data_found = True
plot_ground_truth_boxes(image_file, line_json["label"])
break
if not ground_truth_data_found:
print("Unable to find ground truth information for image: {}".format(image_file))
Met behulp van de bovenstaande helperfuncties kunt u voor elke afbeelding de volgende code uitvoeren om de begrenzingsvakken weer te geven.
image_file = "./odFridgeObjects/images/31.jpg"
jsonl_file = "./odFridgeObjects/train_annotations.jsonl"
plot_ground_truth_boxes_jsonl(image_file, jsonl_file)
Gegevens uploaden en MLTable maken
Als u de gegevens voor training wilt gebruiken, uploadt u gegevens naar de standaard blobopslag van uw Azure Machine Learning-werkruimte en registreert u deze als een asset. De voordelen van het registreren van gegevens zijn:
- Eenvoudig te delen met andere leden van het team
- Versiebeheer van de metagegevens (locatie, beschrijving, enzovoort)
- Herkomst bijhouden
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
Maak een .yml-bestand met de volgende configuratie.
$schema: https://azuremlschemas.azureedge.net/latest/data.schema.json
name: fridge-items-images-object-detection
description: Fridge-items images Object detection
path: ./data/odFridgeObjects
type: uri_folder
Als u de afbeeldingen wilt uploaden als een gegevensasset, voert u de volgende CLI v2-opdracht uit met het pad naar uw .yml-bestand, werkruimtenaam, resourcegroep en abonnements-id.
az ml data create -f [PATH_TO_YML_FILE] --workspace-name [YOUR_AZURE_WORKSPACE] --resource-group [YOUR_AZURE_RESOURCE_GROUP] --subscription [YOUR_AZURE_SUBSCRIPTION]
De volgende stap is het maken MLTable
van uw gegevens in jsonl-indeling, zoals hieronder wordt weergegeven. MLtable verpakt uw gegevens in een verbruiksobject voor training.
paths:
- file: ./train_annotations.jsonl
transformations:
- read_json_lines:
encoding: utf8
invalid_lines: error
include_path_column: false
- convert_column_types:
- columns: image_url
column_type: stream_info
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
Met de volgende configuratie worden trainings- en validatiegegevens gemaakt uit de MLTable.
target_column_name: label
training_data:
path: data/training-mltable-folder
type: mltable
validation_data:
path: data/validation-mltable-folder
type: mltable
Uw objectdetectieexperiment configureren
Als u geautomatiseerde ML-taken wilt configureren voor taken met betrekking tot installatiekopieën, maakt u een taakspecifieke AutoML-taak.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
Als u serverloze rekenkracht (preview) wilt gebruiken, vervangt u de regel
compute: azureml:gpu-cluster
door deze code:resources: instance_type: Standard_NC24s_v3 instance_count: 4
task: image_object_detection
primary_metric: mean_average_precision
compute: azureml:gpu-cluster
Automatisch opschonen van hyperparameters voor afbeeldingstaken (AutoMode)
Belangrijk
Deze functie is momenteel beschikbaar als openbare preview-versie. Deze preview-versie wordt geleverd zonder een service level agreement. Misschien worden bepaalde functies niet ondersteund of zijn de mogelijkheden ervan beperkt. Zie Aanvullende gebruiksvoorwaarden voor Microsoft Azure-previews voor meer informatie.
In uw AutoML-taak kunt u een automatische hyperparameter-sweep uitvoeren om het optimale model te vinden (we noemen deze functie AutoMode). U geeft alleen het aantal proefversies op; de zoekruimte van de hyperparameter, de samplingmethode en het beleid voor vroegtijdige beëindiging zijn niet nodig. Het systeem bepaalt automatisch de regio van de hyperparameterruimte die moet worden geveegd op basis van het aantal experimenten. Een waarde tussen 10 en 20 werkt waarschijnlijk goed voor veel gegevenssets.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
limits:
max_trials: 10
max_concurrent_trials: 2
Vervolgens kunt u de taak indienen om een afbeeldingsmodel te trainen.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
Als u uw AutoML-taak wilt verzenden, voert u de volgende CLI v2-opdracht uit met het pad naar uw .yml-bestand, werkruimtenaam, resourcegroep en abonnements-id.
az ml job create --file ./hello-automl-job-basic.yml --workspace-name [YOUR_AZURE_WORKSPACE] --resource-group [YOUR_AZURE_RESOURCE_GROUP] --subscription [YOUR_AZURE_SUBSCRIPTION]
Handmatige hyperparameter opruimen voor afbeeldingstaken
In uw AutoML-taak kunt u de modelarchitecturen opgeven met behulp van model_name
parameters en de instellingen configureren om een hyperparameter-sweep uit te voeren op een gedefinieerde zoekruimte om het optimale model te vinden.
In dit voorbeeld trainen we een objectdetectiemodel met yolov5
en fasterrcnn_resnet50_fpn
, beide zijn vooraf getraind op COCO, een grootschalige gegevensset voor objectdetectie, segmentatie en bijschriften met meer dan duizenden gelabelde afbeeldingen met meer dan 80 labelcategorieën.
U kunt een hyperparameter-sweep uitvoeren op een gedefinieerde zoekruimte om het optimale model te vinden.
Taaklimieten
U kunt de resources beheren die zijn besteed aan uw Trainingstaak voor AutoML-installatiekopieën door de timeout_minutes
en max_trials
de max_concurrent_trials
taak op te geven in de limietinstellingen. Raadpleeg de gedetailleerde beschrijving van parameters voor taaklimieten.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
limits:
timeout_minutes: 60
max_trials: 10
max_concurrent_trials: 2
De volgende code definieert de zoekruimte ter voorbereiding op de hyperparameter-sweep voor elke gedefinieerde architectuur, yolov5
en fasterrcnn_resnet50_fpn
. Geef in de zoekruimte het bereik van waarden op voor learning_rate
, optimizer
, lr_scheduler
enzovoort, zodat AutoML kan kiezen terwijl wordt geprobeerd een model te genereren met de optimale primaire metriek. Als hyperparameterwaarden niet zijn opgegeven, worden standaardwaarden gebruikt voor elke architectuur.
Gebruik voor de afstemmingsinstellingen willekeurige steekproeven om voorbeelden uit deze parameterruimte te kiezen met behulp van de random
sampling_algorithm. De taaklimieten die hierboven zijn geconfigureerd, vertellen geautomatiseerde ML om in totaal 10 experimenten uit te proberen met deze verschillende steekproeven, waarbij twee proefversies tegelijk worden uitgevoerd op ons rekendoel, dat is ingesteld met vier knooppunten. Hoe meer parameters de zoekruimte heeft, hoe meer experimenten u nodig hebt om optimale modellen te vinden.
Het beleid voor vroegtijdige beëindiging van Bandit wordt ook gebruikt. Dit beleid beëindigt slecht presterende experimenten; Dat wil gezegd, die experimenten die niet binnen de marge van 20% van de best presterende proefversie vallen, waardoor rekenresources aanzienlijk worden bespaard.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
sweep:
sampling_algorithm: random
early_termination:
type: bandit
evaluation_interval: 2
slack_factor: 0.2
delay_evaluation: 6
search_space:
- model_name:
type: choice
values: [yolov5]
learning_rate:
type: uniform
min_value: 0.0001
max_value: 0.01
model_size:
type: choice
values: [small, medium]
- model_name:
type: choice
values: [fasterrcnn_resnet50_fpn]
learning_rate:
type: uniform
min_value: 0.0001
max_value: 0.001
optimizer:
type: choice
values: [sgd, adam, adamw]
min_size:
type: choice
values: [600, 800]
Zodra de instellingen voor zoekruimte en opruimen zijn gedefinieerd, kunt u de taak indienen om een afbeeldingsmodel te trainen met behulp van uw trainingsgegevensset.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
Als u uw AutoML-taak wilt verzenden, voert u de volgende CLI v2-opdracht uit met het pad naar uw .yml-bestand, werkruimtenaam, resourcegroep en abonnements-id.
az ml job create --file ./hello-automl-job-basic.yml --workspace-name [YOUR_AZURE_WORKSPACE] --resource-group [YOUR_AZURE_RESOURCE_GROUP] --subscription [YOUR_AZURE_SUBSCRIPTION]
Wanneer u een hyperparameter opruimen uitvoert, kan het handig zijn om de verschillende proefversies te visualiseren die zijn geprobeerd met behulp van de HyperDrive-gebruikersinterface. U kunt naar deze gebruikersinterface navigeren door naar het tabblad Onderliggende taken in de gebruikersinterface van de hoofd-automl_image_job hierboven te gaan. Dit is de bovenliggende HyperDrive-taak. Vervolgens kunt u naar het tabblad Onderliggende taken van deze taak gaan.
U kunt hier ook direct de bovenliggende HyperDrive-taak zien en naar het tabblad Onderliggende taken navigeren:
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
CLI example not available, please use Python SDK.
Model registreren en implementeren
Zodra de taak is voltooid, kunt u het model registreren dat is gemaakt op basis van de beste proefversie (configuratie die heeft geresulteerd in de beste primaire metrische gegevens). U kunt het model registreren nadat u het hebt gedownload of door het pad met het azureml
bijbehorende jobid
pad op te geven.
Krijg de beste proefversie
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
CLI example not available, please use Python SDK.
Het model registreren
Registreer het model met behulp van het azureml
pad of het lokaal gedownloade pad.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
az ml model create --name od-fridge-items-mlflow-model --version 1 --path azureml://jobs/$best_run/outputs/artifacts/outputs/mlflow-model/ --type mlflow_model --workspace-name [YOUR_AZURE_WORKSPACE] --resource-group [YOUR_AZURE_RESOURCE_GROUP] --subscription [YOUR_AZURE_SUBSCRIPTION]
Nadat u het model hebt geregistreerd dat u wilt gebruiken, kunt u het implementeren met behulp van het beheerde online-eindpunt deploy-managed-online-endpoint
Online-eindpunt configureren
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
$schema: https://azuremlschemas.azureedge.net/latest/managedOnlineEndpoint.schema.json
name: od-fridge-items-endpoint
auth_mode: key
Het eindpunt maken
Met behulp van de MLClient
eerder gemaakte maken we nu het eindpunt in de werkruimte. Met deze opdracht wordt het maken van het eindpunt gestart en wordt een bevestigingsantwoord geretourneerd terwijl het maken van het eindpunt wordt voortgezet.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
az ml online-endpoint create --file .\create_endpoint.yml --workspace-name [YOUR_AZURE_WORKSPACE] --resource-group [YOUR_AZURE_RESOURCE_GROUP] --subscription [YOUR_AZURE_SUBSCRIPTION]
We kunnen ook een batch-eindpunt maken voor batchdeductie op grote hoeveelheden gegevens gedurende een bepaalde periode. Bekijk het batchgewijs score notebook voor objectdetectie voor batchdeductie met behulp van het batch-eindpunt.
Online-implementatie configureren
Een implementatie is een set resources die vereist is voor het hosten van het model dat de werkelijke deductie uitvoert. We maken een implementatie voor ons eindpunt met behulp van de ManagedOnlineDeployment
klasse. U kunt GPU- of CPU-VM-SKU's gebruiken voor uw implementatiecluster.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
name: od-fridge-items-mlflow-deploy
endpoint_name: od-fridge-items-endpoint
model: azureml:od-fridge-items-mlflow-model@latest
instance_type: Standard_DS3_v2
instance_count: 1
liveness_probe:
failure_threshold: 30
success_threshold: 1
timeout: 2
period: 10
initial_delay: 2000
readiness_probe:
failure_threshold: 10
success_threshold: 1
timeout: 10
period: 10
initial_delay: 2000
De implementatie maken
Met behulp van de MLClient
eerder gemaakte maken we de implementatie in de werkruimte. Met deze opdracht wordt het maken van de implementatie gestart en wordt er een bevestigingsantwoord geretourneerd terwijl het maken van de implementatie wordt voortgezet.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
az ml online-deployment create --file .\create_deployment.yml --workspace-name [YOUR_AZURE_WORKSPACE] --resource-group [YOUR_AZURE_RESOURCE_GROUP] --subscription [YOUR_AZURE_SUBSCRIPTION]
Verkeer bijwerken:
De huidige implementatie is standaard ingesteld op 0% verkeer. u kunt instellen welk verkeerspercentage de huidige implementatie moet ontvangen. De som van de verkeerspercentages van alle implementaties met één eindpunt mag niet hoger zijn dan 100%.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
az ml online-endpoint update --name 'od-fridge-items-endpoint' --traffic 'od-fridge-items-mlflow-deploy=100' --workspace-name [YOUR_AZURE_WORKSPACE] --resource-group [YOUR_AZURE_RESOURCE_GROUP] --subscription [YOUR_AZURE_SUBSCRIPTION]
De implementatie testen
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
CLI example not available, please use Python SDK.
Detecties visualiseren
Nu u een testafbeelding hebt gescoord, kunt u de begrenzingsvakken voor deze afbeelding visualiseren. Zorg ervoor dat matplotlib is geïnstalleerd om dit te doen.
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
CLI example not available, please use Python SDK.
Resources opschonen
Voltooi deze sectie niet als u van plan bent om andere Azure Machine Learning-zelfstudies uit te voeren.
Als u niet van plan bent om gebruik te maken van de resources die u hebt gemaakt, kunt u ze verwijderen zodat er geen kosten voor in rekening worden gebracht.
- Selecteer Resourcegroepen links in Azure Portal.
- Selecteer de resourcegroep die u eerder hebt gemaakt uit de lijst.
- Selecteer Resourcegroep verwijderen.
- Voer de naam van de resourcegroup in. Selecteer daarna Verwijderen.
U kunt de resourcegroep ook bewaren en slechts één werkruimte verwijderen. Bekijk de eigenschappen van de werkruimte en selecteer Verwijderen.
Volgende stappen
In deze zelfstudie over geautomatiseerde machine learning hebt u het volgende gedaan:
- U hebt een werkruimte geconfigureerd en gegevens voorbereid voor een experiment.
- Een geautomatiseerd objectdetectiemodel getraind
- Opgegeven hyperparameterwaarden voor uw model
- Een hyperparameter opruimen uitgevoerd
- Uw model geïmplementeerd
- Gevisualiseerde detecties
Meer informatie over computer vision in geautomatiseerde ML.
Meer informatie over het configureren van incrementele training op Computer Vision-modellen.
Bekijk welke hyperparameters beschikbaar zijn voor Computer Vision-taken.
Codevoorbeelden:
VAN TOEPASSING OP: Azure CLI ml-extensie v2 (huidige)
- Bekijk gedetailleerde codevoorbeelden en gebruiksvoorbeelden in de opslagplaats met azureml-voorbeelden voor geautomatiseerde machine learning-voorbeelden. Controleer de mappen met het voorvoegsel 'cli-automl-image-' voor voorbeelden die specifiek zijn voor het bouwen van Computer Vision-modellen.
Notitie
Het gebruik van de gegevensset met koelkastobjecten is beschikbaar via de licentie onder de MIT-licentie.