Visualiser vos traces
Important
Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.
Après avoir instrumenté votre application pour journaliser les traces, passons en revue la façon dont vous pouvez afficher vos traces dans les solutions locales et cloud pour déboguer votre application.
Afficher vos traces pour le débogage local
Pour activer les traces localement, vous avez deux options :
- À l’aide de Prompty, vous pouvez suivre votre application avec le SDK d’inférence Azure AI, qui offre une visibilité améliorée et une résolution des problèmes simplifiés pour les applications basées sur LLM. Cette méthode suit la spécification OpenTelemetry, capture et visualisation des détails d’exécution interne de n’importe quelle application IA, ce qui améliore l’expérience de développement globale. Pour plus d’informations, consultez d’invite de débogage.
- Tableau de bord Aspire : tableau de bord OpenTelemetry gratuit et open source pour obtenir des informations approfondies sur vos applications sur votre ordinateur de développement local. Pour plus d’informations, consultez tableau de bord Aspire.
Afficher vos traces dans le portail Azure AI Foundry
Avant de pouvoir vous connecter au portail Azure AI Foundry, attachez une ressource Application Insights à votre projet.
- Accédez à votre projet dans portail Azure AI Foundry.
- Sélectionnez la page Traçage sur le côté gauche.
- Sélectionnez Créer un nouveau pour attacher une nouvelle ressource Application Insights à votre projet.
- Indiquez un nom, puis sélectionnez Créer.
Ensuite, installez le Kit de développement logiciel (SDK) opentelemetry
:
%pip install azure-monitor-opentelemetry
À présent, activez le suivi avec la sortie dans la console :
import os
from azure.monitor.opentelemetry import configure_azure_monitor
os.environ['AZURE_TRACING_GEN_AI_CONTENT_RECORDING_ENABLED'] = 'true'
# Enable Azure Monitor tracing
application_insights_connection_string = project.telemetry.get_connection_string()
if not application_insights_connection_string:
print("Application Insights was not enabled for this project.")
print("Enable it via the 'Tracing' tab in your AI Studio project page.")
exit()
configure_azure_monitor(connection_string=application_insights_connection_string)
Enfin, exécutez un appel d’inférence. L’appel est enregistré dans Azure AI Studio. Ce code imprime un lien vers les traces.
response = chat.complete(
model="gpt-4o-mini",
messages=[
{"role": "system", "content": "You are an AI assistant that is a travel planning expert especially with National Parks."},
{"role": "user", "content": "Hey, can you recommend me trails I should go on when I visit Mount Rainier?"},
]
)
print("View traces at:")
print(f"https://ai.azure.com/tracing?wsid=/subscriptions/{project.scope['subscription_id']}/resourceGroups/{project.scope['resource_group_name']}/providers/Microsoft.MachineLearningServices/workspaces/{project.scope['project_name']}")
Sélectionnez le lien et commencez à afficher les traces dans Azure AI Studio !
Déboguer et filtrer les traces
Dans votre projet, vous pouvez filtrer vos traces comme vous le souhaitez.
En sélectionnant une trace, je peux parcourir chaque étendue et identifier les problèmes lors de l’observation de la façon dont mon application répond.
Mettre à jour votre ressource Application Insights attachée
Pour mettre à jour la ressource Application Insights attachée à votre projet, accédez à Gérer les sources de données et Modifier pour basculer vers une nouvelle ressource Application Insights.
Afficher vos traces dans Azure Monitor
Si vous avez enregistré des traces à l’aide de l’extrait de code précédent, vous êtes tous définis pour afficher vos traces dans Azure Monitor Application Insights. Vous pouvez ouvrir application Insights à partir de Gérer les de source de données et utiliser l’affichage des détails de transaction de bout en bout pour approfondir l’examen.
Pour plus d’informations sur l’envoi de traces d’inférence Azure AI à Azure Monitor et la création d’une ressource Azure Monitor, consultez documentation Azure Monitor OpenTelemetry.
Afficher vos étendues et traces d’IA génératives
À partir du projet Azure AI Studio, vous pouvez également ouvrir votre tableau de bord personnalisé qui vous fournit des insights spécifiquement pour vous aider à surveiller votre application IA générative.
Dans ce classeur Azure, vous pouvez afficher vos étendues d’IA Gen et accéder à la vue des détails de transaction de bout en bout d’Azure Monitor vue pour approfondir et examiner.
En savoir plus sur l’utilisation de ce classeur pour surveiller votre application, consultez documentation Azure Workbook.