Compartilhar via


O que é conversão de texto em fala?

Nesta visão geral, você saberá mais sobre os benefícios e as funcionalidades do recurso de conversão de texto em fala do serviço de Fala, que faz parte dos Serviços de IA do Azure.

A conversão de texto em fala permite que seus aplicativos, suas ferramentas ou seus dispositivos convertam um texto em uma fala sintetizada semelhante à humana. A funcionalidade de conversão de texto em fala também é conhecida como sintetização de voz. Use vozes neurais pré-compiladas de origem humana ou crie uma voz neural personalizada que seja exclusiva de seu produto ou marca. Para obter uma lista completa de vozes, idiomas e localidades com suporte, confira Suporte de idiomas e vozes do serviço de Fala.

Principais recursos

A conversão de texto em fala inclui os seguintes recursos:

Recurso Resumo Demonstração
Sintetização de voz predefinida (chamada Neural na página de preços) Vozes altamente naturais prontas para uso. Crie uma assinatura do Azure e um recurso de Fala e, em seguida, use o SDK de Fala ou acesse o Portal do Speech Studio e selecione vozes neurais pré-compiladas para a introdução. Verifique os detalhes de preços. Confira a Galeria de Vozes e determine a voz certa para suas necessidades comerciais.
Sintetização de voz personalizada (chamada Neural Personalizada na página de preços) Autoatendimento fácil de usar para criar uma voz de marca natural, com acesso limitado para uso responsável. Crie uma assinatura do Azure e um recurso de Fala (com a camada S0) e aplique para usar o recurso de voz personalizada. Depois de obter acesso, visite o portal do Speech Studio e selecione Voz personalizada para começar. Verifique os detalhes de preços. Confira os exemplos de vozes.

Saiba mais sobre os recursos da conversão de texto em fala neural

A conversão de texto em fala usa redes neurais profundas para tornar as vozes dos computadores quase indistinguíveis das gravações de pessoas. Com uma articulação clara das palavras, a conversão de texto em fala neural reduz consideravelmente a fadiga de escuta quando os usuários interagem com sistemas de IA.

Os padrões de ênfase e entonação na linguagem falada são chamados de prosódia. Os sistemas tradicionais de conversão de texto em fala dividem a prosódia em etapas separadas de análise linguística e previsão acústica que são governadas por modelos independentes. Isso pode resultar em uma voz sintética abafada e confusa.

Veja mais informações sobre os recursos de conversão de texto em fala neural no serviço de Fala e como eles superam os limites dos sistemas tradicionais de conversão de texto em fala:

  • Sintetização de voz em tempo real: use o SDK de Fala ou a API REST para converter um texto em fala usando vozes neurais predefinidas ou vozes neurais personalizadas.

  • Síntese assíncrona de áudio longo: use a API de síntese em lotes para sintetizar de maneira assíncrona arquivos de conversão de texto em fala com mais de 10 minutos (por exemplo, audiolivros ou palestras). Ao contrário da sintetização feita com o SDK de Fala ou a API REST de Conversão de fala em texto, as respostas não são retornadas em tempo real. A expectativa é que as solicitações sejam enviadas de maneira assíncrona, que as respostas sejam sondadas e que o áudio sintetizado seja baixado quando disponibilizado pelo serviço.

  • Vozes neurais pré-compiladas: A Fala de IA do Azure usa redes neurais profundas para superar os limites da síntese de fala tradicional em relação à acentuação e entonação no idioma falado. A previsão de prosódia e a sintetização de voz ocorrem simultaneamente, o que produz resultados mais fluidos e naturais. Cada modelo de voz neural pré-compilado está disponível em 24 kHz e em 48 kHz de alta fidelidade. Você pode usar a sintetização de vozes para:

    • Fazer interações mais naturais e interessantes com chatbots e assistentes de voz.
    • Converter textos digitais, como livros eletrônicos, em audiolivros.
    • Aprimorar sistemas de navegação no carro.

    Para obter uma lista completa de vozes neurais predefinidas da Fala de IA do Azure, consulte o Suporte a linguagem e voz para o serviço de Fala.

  • Aprimorar a saída de conversão de texto em fala com SSML: A Linguagem de Marcação de Sintetização de Voz (SSML) é uma linguagem de marcação baseada em XML usada para personalizar saídas de conversão de texto em fala. Com a SSML, é possível ajustar o timbre, adicionar pausas, aprimorar a pronúncia, alterar a velocidade da fala, ajustar o volume e atribuir várias vozes a um documento individual.

    Você pode usar a SSML para definir léxicos próprios ou mudar para estilos de fala diferentes. Com as vozes multilíngues, você também pode ajustar os idiomas de fala por meio da SSML. Para aprimorar a saída de voz em seu cenário, confira Aprimorar a síntese com a Linguagem de Marcação de Síntese de Fala e Síntese de fala com a ferramenta Criação de Conteúdo de Áudio.

  • Visemas: visemas são poses básicas da fala observada, como a posição dos lábios, da mandíbula e da língua ao produzir um fonema específico. Os visemes têm uma forte correlação com vozes e fonemas.

    Usando eventos de visema no SDK de Fala, você pode gerar dados de animação facial. Esses dados podem ser usados para animar rostos em comunicação, educação, entretenimento e serviço de atendimento ao cliente com leitura labial. Atualmente, só há suporte para visemas na sintetização de vozes (inglês dos EUA) en-US.

Observação

Além das vozes neurais da Fala de IA do Azure (não HD), você também pode usar Vozes em HD (alta definição) da Fala de IA do Azure e Vozes neurais (HD e não HD) da OpenAI do Azure. As vozes em HD fornecem uma qualidade mais alta para cenários mais versáteis.

Algumas vozes não dão suporte a todas as marcas SSML (Linguagem de Marcação de Sintetização de Voz). Isso inclui vozes em HD de conversão de texto em fala neurais, vozes pessoais e vozes incorporadas.

  • Para vozes em HD (alta definição) da Fala de IA do Azure, verifique o suporte à SSML aqui.
  • Para a voz pessoal, você pode encontrar o suporte à SSML aqui.
  • Para obter vozes incorporadas, verifique o suporte à SSML aqui.

Introdução

Para começar a usar a conversão de texto em fala, confira o guia de início rápido. A conversão de texto em fala está disponível por meio do SDK de Fala, da API REST e da CLI de Fala.

Dica

Para converter texto em fala com uma abordagem sem código, experimente a ferramenta Criação de Conteúdo de Áudio no Speech Studio.

Código de exemplo

Há um código de exemplo disponível no GitHub para a conversão de texto em fala. Esses exemplos abordam a conversão de texto em fala nas linguagens de programação mais populares:

Sintetização de voz personalizada

Além das vozes neurais pré-compiladas, você pode criar vozes neurais personalizadas que sejam exclusivas do seu produto ou marca. Para começar, bastam alguns arquivos de áudio e as transcrições deles. Para saber mais, confira Introdução à sintetização de voz personalizada.

Observação sobre os preços

Caracteres faturáveis

Ao usar o recurso de conversão de texto em fala, você é cobrado por caractere convertido em fala, incluindo a pontuação. Embora o documento SSML em si não seja faturável, os elementos opcionais usados para ajustar a forma como o texto é convertido em fala, como fonemas e tom, são contados como caracteres faturáveis. Veja uma lista de itens faturáveis:

  • Texto transmitido para o recurso de conversão de texto em fala no corpo SSML da solicitação
  • Todas as marcações dentro do campo de texto do corpo da solicitação no formato SSML, exceto as marcas <speak> e <voice>
  • Letras, pontuação, espaços, tabulações, marcação e todos os caracteres de espaço em branco
  • Cada ponto de código definido no Unicode

Para obter informações detalhadas, confira Preços do serviço de Fala.

Importante

Cada caractere chinês é contado como dois caracteres para cobrança, incluindo o kanji usado no japonês, o hanja usado no coreano ou o hanzi usado em outros idiomas.

Tempo de treinamento e hospedagem do modelo para a sintetização de voz personalizada

O treinamento e a hospedagem da sintetização de voz personalizada são calculados por hora e cobrados por segundo. Para obter o preço unitário da cobrança, consulte Preços do serviço de Fala.

O tempo de treinamento da CNV (sintetização de voz personalizada) é medido por "hora de computação" (uma unidade para medir o tempo de execução do computador). Normalmente, ao treinar um modelo de voz, duas tarefas de computação são executadas em paralelo. Portanto, as horas de computação calculadas serão maiores do que o tempo real de treinamento. Em média, leva menos de uma hora de computação para treinar uma voz da CNV Lite; enquanto para a CNV Pro, geralmente leva de 20 a 40 horas de computação para treinar uma voz de estilo único e cerca de 90 horas de computação para treinar uma voz de vários estilos. O tempo de treinamento da CNV é cobrado com um limite de 96 horas de computação. Portanto, no caso de um modelo de voz ser treinado em 98 horas de computação, você só será cobrado 96 horas de computação.

A hospedagem do ponto de extremidade da CNV (sintetização de voz personalizada) é medida pelo tempo real (hora). O tempo de hospedagem (horas) para cada ponto de extremidade é calculado às 00:00 UTC todos os dias nas 24 horas anteriores. Por exemplo, se o ponto de extremidade estiver ativo por 24 horas no primeiro dia, ele será cobrado por 24 horas às 00:00 UTC no segundo dia. Se o ponto de extremidade for criado recentemente ou suspenso durante o dia, ele será cobrado pelo tempo de execução acumulado até as 00:00 UTC do segundo dia. Se o ponto de extremidade não estiver hospedado no momento, ele não será cobrado. Além do cálculo diário às 00:00 UTC por dia, a cobrança também é disparada imediatamente quando um ponto de extremidade é excluído ou suspenso. Por exemplo, para um ponto de extremidade criado às 08:00 UTC em 1º de dezembro, a hora de hospedagem será calculada para 16 horas às 00:00 UTC em 2 de dezembro e 24 horas às 00:00 UTC em 3 de dezembro. Se o usuário suspender a hospedagem do ponto de extremidade às 16:30 UTC em 3 de dezembro, a duração (16,5 horas) de 00:00 às 16:30 UTC em 3 de dezembro será calculada para cobrança.

Voz pessoal

Quando você usa o recurso de voz pessoal, é cobrado pelo armazenamento de perfil e pela síntese.

  • armazenamento de perfil: depois que um perfil de voz pessoal for criado, ele será cobrado até que seja removido do sistema. A unidade de cobrança é por voz por dia. Se o armazenamento de voz durar menos de 24 horas, ele será cobrado como um dia inteiro.
  • Síntese: cobrado por caractere. Para obter detalhes sobre caracteres faturáveis, consulte os caracteres faturáveis acima.

Avatar de conversão de texto em fala

Ao usar o recurso de avatar de texto em fala, os encargos serão incorridos com base no comprimento da saída do vídeo e serão cobrados por segundo. No entanto, para o avatar em tempo real, as acusações são baseadas no momento em que o avatar está ativo, independentemente de ele estar falando ou permanecer em silêncio, e também será cobrado por segundo. Para otimizar os custos de uso de avatar em tempo real, consulte as dicas fornecidas no código de exemplo (pesquise "Usar vídeo local para ocioso"). A hospedagem de avatar é cobrada por segundo por ponto de extremidade. Você pode suspender seu ponto de extremidade para economizar custos. Se você quiser suspender o ponto de extremidade, poderá excluí-lo diretamente. Para usá-lo novamente, basta reimplantar o ponto de extremidade.

Monitorar as métricas de conversão de texto em fala

O monitoramento das principais métricas associadas aos serviços de conversão de texto em fala é crucial para gerenciar o uso de recursos e controlar os custos. Esta seção o orientará sobre como encontrar informações de uso no portal do Azure e fornecerá definições detalhadas das principais métricas. Para obter mais detalhes sobre as métricas do Azure Monitor, consulte Visão geral das métricas do Azure Monitor.

Como encontrar informações de uso no portal do Azure

Para gerenciar efetivamente seus recursos do Azure, é essencial acessar e examinar as informações de uso regularmente. Veja a seguir como encontrar as informações de uso:

  1. Vá para o portal do Azure e entre com sua conta do Azure.

  2. Navegue até Recursos e selecione o recurso que deseja monitorar.

  3. Selecione Métricas em Monitoramento no menu à esquerda.

    Captura de tela da seleção da opção de métricas em monitoramento.

  4. Personalizar as exibições de métricas.

    Você pode filtrar dados por tipo de recurso, tipo de métrica, intervalo de tempo e outros parâmetros para criar exibições personalizadas que se alinhem às suas necessidades de monitoramento. Além disso, você pode salvar a exibição de métrica nos painéis selecionando Salvar no painel para facilitar o acesso às métricas usadas com frequência.

  5. Configurar alertas.

    Para gerenciar o uso com mais eficiência, configure alertas navegando até a guia Alertas em Monitoramento no menu à esquerda. Os alertas podem notificá-lo quando o uso atinge limites específicos, ajudando a evitar custos inesperados.

Definição de métricas

Abaixo está uma tabela que resume as principais métricas dos serviços de conversão de texto em fala do Azure.

Nome da métrica Descrição
Caracteres Sintetizados Rastreia o número de caracteres convertidos em fala, incluindo voz neural pré-compilada e voz neural personalizada. Para obter detalhes sobre caracteres faturáveis, consulte Caracteres faturáveis.
Segundos de Vídeo Sintetizados Mede a duração total do vídeo sintetizado, incluindo síntese de avatar em lote, a síntese de avatar em tempo real e a síntese de avatar personalizado.
Segundos de Hosting do Modelo de Avatar Rastreia o tempo total em segundos em que seu modelo de avatar personalizado está hospedado.
Horas de Hosting do Modelo de Voz Rastreia o tempo total em horas que seu modelo de voz neural personalizada está hospedado.
Minutos de treinamento do modelo de voz Mede o tempo total em minutos para o treinamento do modelo de voz neural personalizado.

Documentos de Referência

IA responsável

Um sistema de IA inclui não apenas a tecnologia, mas também as pessoas que a usam, que serão afetadas por ela e o ambiente em que ela foi implantada. Leia as notas de transparência para saber mais sobre o uso e a implantação de IA responsável em seus sistemas.

Próximas etapas