Traduire la parole en texte
Le modèle de traduction vocale à l’aide du Kit de développement logiciel (SDK) Azure AI Speech est similaire à la reconnaissance vocale, avec l’ajout d’informations sur les langues sources et cibles pour la traduction :
Utilisez un objet SpeechTranslationConfig pour encapsuler les informations requises pour vous connecter à votre ressource Azure AI Speech. Plus précisément, son emplacement et sa clé.
L’objet SpeechTranslationConfig est également utilisé pour spécifier la langue de reconnaissance vocale (langue dans laquelle la parole d’entrée est parlée) et les langues cibles dans lesquelles elle doit être traduite.
Si vous le souhaitez, utilisez un AudioConfig pour définir la source d’entrée de l’audio à transcrire. Par défaut, il s’agit du microphone système par défaut, mais vous pouvez également spécifier un fichier audio.
Utilisez le SpeechTranslationConfiget AudioConfig pour créer un objet TranslationRecognizer. Cet objet est un client proxy pour l’API de traduction d’Azure AI Speech.
Utilisez les méthodes de l’objet TranslationRecognizer pour appeler les fonctions API sous-jacentes. Par exemple, la méthode RecognizeOnceAsync() utilise le service Azure AI Speech pour traduire de manière asynchrone un seul énoncé parlé.
Traitez la réponse d’Azure AI Speech. Dans le cas de la méthode RecognizeOnceAsync(), le résultat est un objet SpeechRecognitionResult qui inclut les propriétés suivantes :
- Durée
- OffsetInTicks
- Propriétés
- Motif
- ResultId
- Texte
- Traductions
Si l’opération a réussi, la propriété Reason a la valeur énumérée RecognizedSpeech, la propriété Text contient la transcription dans la langue d’origine. Vous pouvez également accéder à une propriété Traductions qui contient un dictionnaire des traductions (à l’aide du code de langue ISO à deux caractères, tel que « en » pour l’anglais, en tant que clé).