Resumo

Concluído

Neste módulo, você aprendeu a:

  • Crie uma máquina virtual acelerada por GPU NVIDIA.
  • Configure o Servidor de inferência NVIDIA Triton e os pré-requisitos relacionados.
  • Execute uma carga de trabalho de inferência no NVIDIA Triton Inference Server.

Resumo

A equipe de desenvolvimento implementou com êxito uma solução completa de detecção de objetos personalizada em sua linha de negócios. A equipe usou o Estúdio do Azure Machine Learning para operacionalizar a coleta e marcação de amostras de imagens. Eles também puderam simplificar a capacidade de treinar novos modelos usando instâncias de computação aceleradas por GPU. Agora, eles concluíram o projeto implantando o modelo em um NVIDIA Triton Inference Server e verificaram que o modelo está pronto para entrar em produção na fábrica.

Saiba mais

  • Para garantir que você tenha os melhores recursos para fazer o trabalho da sua vida, junte-se ao Programa de desenvolvedores NVIDIA e acesse SDKs (Kits de desenvolvimento de software) gratuitos, documentação técnica e ajuda de colegas e especialistas na área.
  • Para ampliar seu conhecimento em IA, computação acelerada, ciência de dados acelerada, gráficos e simulação. Veja uma lista completa de cursos individuais e explore as oportunidades de treinamento com instrutor do Deep Learning Institute da NVIDIA.