Synthèse des traductions
TranslationRecognizer retourne des transcriptions traduites de l’entrée parlée, c’est-à-dire qu’il traduit la parole audible sous forme textuelle.
Vous pouvez également effectuer une synthèse vocale de la traduction pour créer des solutions de reconnaissance, traduction et synthèse vocale. Il existe deux manières de procéder.
Synthèse basée sur les événements
Si vous souhaitez effectuer une traduction biunivoque (d’une langue source vers une seule langue cible), vous pouvez utiliser la synthèse basée sur les événements pour capturer la traduction sous forme de flux audio. Pour cela, vous devez procéder comme suit :
Spécifiez la voix souhaitée pour la parole traduite dans l’objet TranslationConfig. Créez un gestionnaire d’événements pour l’événement Synthesizing de l’objet TranslationRecognizer. Dans le gestionnaire d’événements, utilisez la méthode GetAudio() du paramètre Result pour récupérer le flux d’octets de l’audio traduit. Le code permettant d’implémenter un gestionnaire d’événements varie selon le langage de programmation utilisé. Consultez les exemples C# et Python dans la documentation du kit SDK Speech.
Synthèse manuelle
À la différence de la synthèse basée sur les événements, la synthèse manuelle n’oblige pas à implémenter un gestionnaire d’événements. Vous pouvez utiliser cette approche pour générer des traductions audio dans une ou plusieurs langues cibles.
La synthèse manuelle des traductions est une combinaison de deux opérations distinctes :
- Utiliser un TranslationRecognizer pour convertir une entrée parlée en transcriptions de texte dans une ou plusieurs langues cibles
- Boucler sur le dictionnaire Translations dans le résultat de l’opération de traduction en utilisant un SpeechSynthesizer pour synthétiser un flux audio dans chaque langue