Résumé
Dans ce module, vous avez appris à :
- Créez une machine virtuelle avec accélération GPU NVIDIA.
- Configurez le Serveur d’inférence NVIDIA Triton et les prérequis associés.
- Exécutez une charge de travail d’inférence sur le serveur d’inférence NVIDIA Triton.
Résumé
L’équipe de développement a correctement implémenté une solution de détection d’objets personnalisée complète dans son métier. L’équipe a utilisé le studio Azure Machine Learning pour opérationnaliser la collecte et l’étiquetage des exemples d’images. Elle a également pu simplifier la capacité à entraîner de nouveaux modèles à l’aide d’instances de calcul à accélération GPU. Elle a maintenant terminé le projet en déployant son modèle sur une instance NVIDIA Triton Inference Server et vérifié que le modèle est prêt à passer en production sur le site de fabrication.
En savoir plus
- Pour disposer des meilleures ressources pour accomplir votre travail, rejoignez le Programme pour développeurs NVIDIA et accédez gratuitement aux Kits de développement logiciel (SDK), à une documentation technique ainsi qu’à l’aide de pairs et d’experts dans le domaine.
- Pour améliorer vos connaissances en IA, informatique accélérée, science des données accélérée, graphismes et simulations. Passez en revue la liste complète des cours auto-rythmés et explorez les formations dispensées par un instructeur du NVIDIA Deep Learning Institute.