Inleiding

Voltooid

In deze module publiceert en implementeert u een op ARM64 gebaseerde DeepStream-containerworkload naar NVIDIA embedded hardware met behulp van Azure IoT Edge.

Vereisten

Schermopname van een nvidia Jetson-ingesloten apparaat.

Scenario: Een DeepStream Graph Composer-workload implementeren op een echt apparaat aan de rand

Uw baas is enthousiast over de voortgang van uw Intelligente videotoepassing en is geïnteresseerd in het in productie brengen van uw werk. U leert dat NVIDIA een reeks ingesloten apparaten produceert die NVIDIA DeepStream Graph Composer-workloads kunnen uitvoeren. U hebt besloten om te onderzoeken met behulp van de Azure IoT Edge-runtime om uw NVIDIA DeepStream Graph Composer-workload veilig te distribueren naar deze kleine GPU-versnelde apparaten (Form Factor Graphics Processing Unit) op locaties over de hele wereld. Met deze strategie wordt het probleem van de implementatie niet alleen opgelost, maar kunt u ook metrische gegevens verzamelen van alle apparaten op één locatie. Vervolgens kunt u analyses uitvoeren met behulp van services in Azure.

Wat leer je?

Wanneer u deze module hebt voltooid, kunt u het volgende doen:

  • Wijzig een NVIDIA DeepStream Graph Composer-toepassing om gegevens te publiceren naar een hub in Azure IoT Hub.
  • Bouw en publiceer platformoverschrijdende NVIDIA DeepStream-containerinstallatiekopieën naar een containerregister in Azure Container Registry.
  • Configureer Azure IoT Edge om te worden uitgevoerd op NVIDIA Embedded-hardware.
  • Implementeer platformoverschrijdende NVIDIA DeepStream-installatiekopieën op INGESLOTEN NVIDIA-apparaten met behulp van Azure IoT Edge.

Wat is het belangrijkste doel?

In deze module ziet u hoe u DeepStream Graph Composer gebruikt om platformoverschrijdende containerinstallatiekopieën te bouwen. Vervolgens publiceert u deze artefacten naar een containerregister in Azure, waar u ernaar kunt verwijzen en ze veilig kunt implementeren op een NVIDIA embedded-apparaat waarop Azure IoT Edge wordt uitgevoerd.