Introduktion

Slutförd

I den här modulen publicerar och distribuerar du en ARM64-baserad DeepStream-containerarbetsbelastning till NVIDIA Embedded-maskinvara med hjälp av Azure IoT Edge.

Förutsättningar

Skärmbild som visar en inbäddad NVIDIA Jetson-enhet.

Scenario: Distribuera en DeepStream Graph Composer-arbetsbelastning till en riktig enhet vid gränsen

Din chef är entusiastisk över utvecklingen av ditt intelligenta videoprogram och är intresserad av att sätta ditt arbete i produktion. Du får lära dig att NVIDIA skapar en rad inbäddade enheter som kan köra NVIDIA DeepStream Graph Composer-arbetsbelastningar. Du har bestämt dig för att undersöka användningen av Azure IoT Edge-körningen för att på ett säkert sätt distribuera din NVIDIA DeepStream Graph Composer-arbetsbelastning till dessa GPU-accelererade enheter (Small Form Factor Graphics Processing Unit) på platser runt om i världen. Den här strategin löser inte bara distributionsproblemet, utan gör också att du kan samla in mått från alla enheter på en enda plats. Sedan kan du utföra analyser med hjälp av tjänster i Azure.

Vad kommer du att lära dig?

När du är klar med den här modulen kan du:

  • Ändra ett NVIDIA DeepStream Graph Composer-program för att publicera data till en hubb i Azure IoT Hub.
  • Skapa och publicera plattformsoberoende NVIDIA DeepStream-containeravbildningar till ett containerregister i Azure Container Registry.
  • Konfigurera Azure IoT Edge att köras på NVIDIA Embedded-maskinvara.
  • Distribuera plattformsoberoende NVIDIA DeepStream-avbildningar till NVIDIA Embedded-enheter med hjälp av Azure IoT Edge.

Vad är huvudmålet?

Den här modulen visar hur du använder DeepStream Graph Composer för att skapa plattformsoberoende containeravbildningar. Sedan publicerar du artefakterna i ett containerregister i Azure, där du kan referera till dem och distribuera dem på ett säkert sätt till en NVIDIA Embedded-enhet som kör Azure IoT Edge.