Édition

Partage via


Extraire et analyser les données d’un centre d’appels

Stockage Blob Azure
Azure AI Speech
Azure AI services
Power BI

Cet article explique comment extraire des insights (aperçus) à partir de conversations de clients dans un centre d’appels à l’aide d’Azure AI services et d’Azure OpenAI Service. Utilisez ces services pour améliorer les interactions avec les clients et leur satisfaction en analysant l’intention et le sentiment de l'appel, en extrayant des entités clés et en résumant le contenu des appels.

Architecture

Diagramme montrant l’architecture IA d’un centre d’appels.Téléchargez un fichier PowerPoint de cette architecture.

Dataflow

  1. Un appel téléphonique entre un agent et un client est enregistré et stocké dans Stockage Blob Azure. Les fichiers audio sont chargés sur un compte Stockage Azure au moyen d’une méthode prise en charge, telle que l’outil basé sur l’interface utilisateur, Explorateur Stockage Azure, ou un kit de développement logiciel (SDK) ou une API Stockage.

  2. Une fonction Azure est configurée avec l’un des déclencheurs suivants pour démarrer le processus de transcription intelligent :

    • Déclencheur de minuteur : configurez un déclencheur basé sur le temps pour traiter un lot de fichiers audio accumulés sur une période spécifiée.

    • Déclencheur d’objet blob : configurez un déclencheur d’objet blob pour lancer la transcription intelligente dès qu’un fichier audio est chargé dans le conteneur d’objets blob.

  3. La fonction Azure déclenche un service Azure App Service qui exécute les étapes suivantes dans la séquence :

    1. Appelez Azure AI Speech pour transcrire les fichiers.

    2. Vous pouvez également enregistrer ce fichier brut dans le stockage Blob Azure pour référence ultérieure.

    3. Transmettez les données brutes au service Azure AI Language pour détecter et modifier les données personnelles dans la transcription.

    4. Envoyez les données modifiées au service Azure OpenAI pour effectuer diverses analyses post-appel, comme comprendre l’intention et le sentiment de l’appel, extraire des entités ou résumer la conversation pour évaluer l’efficacité de l’appel.

    5. Stockez le résultat traité dans Stockage Azure pour la visualisation ou la consommation par les applications en aval pour un traitement ultérieur.

  4. Power BI peut être utilisé pour visualiser l’analytique post-appel sur différents critères, comme requis par le cas d’usage métier. Vous pouvez également stocker ces données dans un système de gestion de la relation client (CRM), de manière à ce que les agents disposent d'informations contextuelles sur les raisons de l'appel du client et puissent résoudre rapidement les problèmes éventuels. Ce processus est entièrement automatisé, ce qui permet aux agents de gagner du temps et de l’énergie.

Composants

  • Stockage Blob est la solution de stockage d’objets pour les fichiers bruts dans ce scénario. Stockage Blob prend en charge les bibliothèques pour plusieurs langages, comme .NET, Node.js et Python. Les applications peuvent accéder aux fichiers sur Stockage Blob via HTTP ou HTTPS. Stockage Blob a des niveaux d’accès chaud, froid et archive pour stocker de grandes quantités de données, ce qui optimise les coûts.

  • Azure OpenAI permet d’accéder aux modèles de langage Azure OpenAI, dont GPT-3, Codex et la série de modèles d’incorporations, pour la génération de contenu, la synthèse, la recherche sémantique et la traduction de code. Vous pouvez accéder au service par le biais des API REST, du SDK Python ou de l’interface web dans Azure OpenAI Studio.

  • Azure AI Speech est une API basée sur l’IA qui fournit des fonctionnalités vocales comme la reconnaissance vocale, la synthèse vocale, la traduction vocale et la reconnaissance de l’orateur. Cette architecture utilise la fonctionnalité de transcription par lots d’Azure AI Speech.

  • Azure AI Language regroupe les services de traitement du langage naturel d’Azure. Pour plus d’informations sur les options prédéfinies et personnalisables, consultez la section Fonctionnalités disponibles d’Azure AI Language.

  • Language Studio fournit une interface utilisateur permettant d’explorer et d’analyser les fonctionnalités de langage d’AI services. Language Studio fournit des options pour la création, l’étiquetage, l’entraînement et le déploiement de modèles personnalisés.

  • Power BI est un service SaaS (software as a service) qui fournit des insights visuels et interactifs pour les analyses métier. Il fournit des fonctionnalités de transformation et se connecte à d’autres sources de données.

Autres solutions

Selon votre scénario, vous pouvez ajouter les workflows suivants.

  • Effectuez le résumé des conversations en utilisant le modèle prédéfini dans Azure AI Language.
  • Azure propose également Speech Analytics qui fournit l’orchestration complète pour l’analytique post-appel par lots.

Détails du scénario

Cette solution utilise Azure AI Speech to Text pour convertir l’audio du centre d'appel en texte écrit. Azure AI Language masque les informations sensibles dans la transcription de conversation. Azure OpenAI extrait les insights de la conversation client pour améliorer l’efficacité du centre d’appels et la satisfaction des clients. Utilisez cette solution pour traiter le texte transcrit, reconnaître et supprimer des informations sensibles, et effectuer des analyses sur les extractions comme la raison de l’appel, la résolution fournie ou non, le sentiment de l’appel, la description de l’offre produit/service en fonction du nombre de requêtes/plaintes des clients, et ainsi de suite. Mettez à l’échelle les services et le pipeline pour prendre en charge n’importe quel volume de données enregistrées.

Cas d’usage potentiels

Cette solution offre une valeur ajoutée aux organisations de plusieurs secteurs qui ont des agents de service clientèle. L’analytique post-appel peut aider à améliorer les produits et services de l’entreprise, ainsi que l’efficacité des systèmes de service clientèle. La solution est utile pour toutes les organisations qui enregistre les conversations, y compris les agents chargés des clients, les centres d’appels internes ou les services de support technique.

Considérations

Ces considérations implémentent les piliers d’Azure Well-Architected Framework qui est un ensemble de principes directeurs qui permettent d’améliorer la qualité d’une charge de travail. Pour plus d’informations, consultez Microsoft Azure Well-Architected Framework.

Fiabilité

La fiabilité permet de s’assurer que votre application tient vos engagements auprès de vos clients. Pour en savoir plus, consultez Liste de contrôle de l'examen de la conception pour la fiabilité.

Sécurité

La sécurité fournit des garanties contre les attaques délibérées, et contre l’utilisation abusive de vos données et systèmes importants. Pour en savoir plus, consultez Liste de contrôle de l'examen de la conception pour la sécurité.

Optimisation des coûts

L’optimisation des coûts consiste à examiner les moyens de réduire les dépenses inutiles et d’améliorer l’efficacité opérationnelle. Pour plus d'informations, consultez Liste de contrôle de la révision de la conception pour l'optimisation des coûts.

Le coût total de cette solution varie en fonction du niveau tarifaire de vos services. Les facteurs pouvant modifier le prix de chaque composant sont les suivants :

  • Le nombre de documents que vous traitez.
  • Le nombre de requêtes simultanées que votre application reçoit.
  • La taille des données que vous stockez après le traitement.
  • Votre région de déploiement.

Pour plus d’informations, consultez les ressources suivantes :

Utilisez la calculatrice de prix Azure pour estimer le coût de votre solution.

Efficacité des performances

L’efficacité des performances est la capacité de votre charge de travail à répondre aux demandes qu’elle impose aux utilisateurs de manière efficace. Pour en savoir plus, consultez Liste de vérification de l'examen de la conception pour l'efficacité des performances

Quand des volumes élevés de données sont traités, des goulots d’étranglement des performances peuvent se produire. Pour garantir l’efficacité des performances, comprenez et planifiez les options de mise à l’échelle à utiliser avec la fonctionnalité de mise à l’échelle automatique d’AI services.

L’API de reconnaissance vocale par lots est conçue pour des volumes élevés, mais d’autres API AI services peuvent avoir des limites de requêtes en fonction du niveau d’abonnement. Envisagez de conteneuriser les API AI services pour éviter de ralentir le traitement de gros volumes. Les conteneurs offrent une flexibilité de déploiement dans le cloud et localement. Atténuez les effets secondaires des lancements de la nouvelle version à l’aide de conteneurs. Pour plus d’informations, consultez l’article Prise en charge des conteneurs dans AI services.

Contributeurs

Cet article est géré par Microsoft. Il a été écrit à l’origine par les contributeurs suivants.

Auteurs principaux :

  • Dixit Arora | Ingénieur client senior, ISV DN CoE
  • Jyotsna Ravi | Ingénieur client principal, ISV DN CoE

Pour afficher les profils LinkedIn non publics, connectez-vous à LinkedIn.

Étapes suivantes