Se você não conseguir encontrar respostas para suas perguntas neste documento e ainda precisar de ajuda, consulte o Guia de opções de suporte dos serviços de IA do Azure. A OpenAI do Azure faz parte dos serviços de IA do Azure.
Dados e privacidade
Você usa os dados da minha empresa para treinar algum modelo?
O OpenAI do Azure não usa dados do cliente para retreinar modelos. Para obter mais informações, confira o Guia de dados, privacidade e segurança do OpenAI do Azure.
Geral
O OpenAI do Azure dá suporte a cabeçalhos de API personalizados? Acrescentamos cabeçalhos personalizados adicionais às nossas solicitações de API e estamos vendo erros de falha HTTP 431.
Nossas APIs atuais permitem até 10 cabeçalhos personalizados, que são passados pelo pipeline e retornados. Notamos que alguns clientes já excedem essa contagem de cabeçalhos, resultando em erros HTTP 431. Não há solução para esse erro, além de reduzir o volume do cabeçalho. Nas futuro versões da API, não passaremos mais por cabeçalhos personalizados. Recomendamos que os clientes não dependam de cabeçalhos personalizados nas futuras arquiteturas do sistema.
O Azure OpenAI funciona com a biblioteca Python mais recente lançada pelo OpenAI (versão>=1.0)?
O Azure OpenAI é compatível com a versão mais recente da biblioteca do OpenAI Python (versão>=1.0). No entanto, é importante observar a migração da base de código usando openai migrate
não tem suporte e não funcionará com código direcionado ao Azure OpenAI.
Não consigo encontrar o GPT-4 Turbo Versão Prévia, onde ele está?
GPT-4 Turbo Preview é o modelogpt-4
(1106-preview). Para implantar esse modelo, em Implantações, selecione o modelo gpt-4. Para a Versão do modelo, selecione 1106-preview. Para verificar quais regiões esse modelo está disponível, consulte a página de modelos.
O OpenAI do Azure dá suporte ao GPT-4?
O OpenAI do Azure dá suporte aos modelos GPT-4 mais recentes. Dá suporte a GPT-4 e GPT-4-32K.
Quais são as diferenças entre as funcionalidades do OpenAI do Azure e do OpenAI?
O Serviço OpenAI do Azure fornece aos clientes IA de linguagem avançada com os modelos GPT-3, Codex e DALL-E do OpenAI com a promessa empresarial e de segurança do Azure. O OpenAI do Azure desenvolve as APIs em conjunto com a OpenAI, garantindo a compatibilidade e uma transição suave de uma para a outra.
Com o OpenAI do Azure, os clientes obtêm os recursos de segurança do Microsoft Azure enquanto executam os mesmos modelos que o OpenAI.
O OpenAI do Azure dá suporte à VNET e a Pontos de Extremidade Privados?
Sim, como parte dos serviços de IA do Azure, o Azure OpenAI oferece suporte a VNETs e Pontos de Extremidade Privados. Para saber mais, consulte Diretrizes de rede virtual dos serviços de IA do Azure
Os modelos do GPT-4 atualmente dão suporte à entrada de imagem?
Não, o GPT-4 foi projetado pelo OpenAI para ser multimodal, mas atualmente há suporte apenas para entrada e saída de texto.
Como me inscrevo para novos casos de uso?
Anteriormente, o processo para adicionar novos casos de uso exigia que os clientes se inscrevessem novamente no serviço. Agora, estamos lançando um novo processo que permite adicionar rapidamente novos casos de uso ao uso do serviço. Esse processo segue o processo de Acesso Limitado estabelecido nos serviços de IA do Azure. Os clientes existentes podem atestar todos os novos casos de uso aqui. Observe que isso é necessário sempre que você quiser usar o serviço para um novo caso de uso para o qual não se inscreveu originalmente.
Estou tentando usar inserções e recebi o erro "InvalidRequestError: Muitas entradas. O número máximo de entradas é 16." Como corrigir isso?
Esse erro normalmente ocorre quando você tenta enviar um lote de texto para inserir em uma única solicitação de API como uma matriz. Atualmente, o Azure OpenAI só oferece suporte a matrizes de inserções com várias entradas para o modelo text-embedding-ada-002
versão 2. Essa versão do modelo é compatível com uma matriz que consiste em até 16 entradas por solicitação de API. A matriz pode ter até 8.191 tokens de comprimento ao usar o modelo text-embedding-ada-002 (Versão 2).
Onde posso ler sobre maneiras melhores de usar o OpenAI do Azure para obter as respostas que espero do serviço?
Confira nossa introdução á engenharia de solicitação. Embora esses modelos sejam poderosos, seu comportamento também é muito sensível ás solicitações que recebem do usuário. Isso torna a construção de prompt uma habilidade importante para desenvolver. Depois de concluir a introdução, confira nosso artigo sobre mensagens do sistema.
Minha conta de convidado recebeu acesso a um recurso de OpenAI do Azure, mas não consigo acessar esse recurso no Estúdio de IA do Azure. Como fazer para habilitar o acesso?
Esse é o comportamento esperado ao usar a experiência de entrada padrão para o Estúdio de IA do Azure.
Para acessar o Estúdio de IA do Azure de uma conta de convidado à qual foi concedido acesso a um recurso do OpenAI do Azure:
- Abra uma sessão privada do navegador e navegue até https://ai.azure.com.
- Em vez de inserir imediatamente as credenciais de sua conta de convidado, selecione
Sign-in options
- Agora, selecione Entrar em uma organização
- Insira o nome de domínio da organização que concedeu à sua conta de convidado acesso ao recurso do Azure OpenAI.
- Agora, entre com as credenciais de sua conta de convidado.
Agora você deve conseguir acessar o recurso por meio do Estúdio de IA do Azure.
Como alternativa, se você estiver conectado ao Portal do Azure no painel de Visão geral do recurso de OpenAI do Azure, poderá selecionar Ir para o Estúdio de IA do Azure para entrar automaticamente com o contexto organizacional apropriado.
Quando pergunto ao GPT-4 qual modelo ele está executando, ele me diz que está executando o GPT-3. Por que isso acontece?
Os modelos do OpenAI do Azure (incluindo GPT-4) não conseguem identificar corretamente qual modelo que está sendo executado é o comportamento esperado.
Por que isso acontece?
Por fim, o modelo está executando a próxima previsão de token em resposta à sua pergunta. O modelo não tem nenhuma capacidade nativa de consultar qual versão do modelo está sendo executada no momento para responder à sua pergunta. Para responder a essa pergunta, você sempre pode ir para Estúdio de IA do Azure>Gerenciamento>Implantações> e consulte a coluna de nome do modelo para confirmar qual modelo está atualmente associado a um determinado nome de implantação.
As perguntas "Qual modelo você está executando?" ou "Qual é o modelo mais recente do OpenAI?" produzem resultados de qualidade semelhantes ao perguntar ao modelo qual será o tempo hoje. Ele pode retornar o resultado correto, mas puramente por acaso. Por si só, o modelo não tem nenhuma informação do mundo real além da que fazia parte de seu treinamento/dados de treinamento. No caso do GPT-4, a partir de agosto de 2023, os dados de treinamento subjacentes só vão até setembro de 2021. O GPT-4 não foi tinha sido lançado até março de 2023, portanto, a menos que o OpenAI lance uma nova versão com dados de treinamento atualizados, ou uma nova versão que seja ajustada para responder a essas perguntas específicas, é esperado que o GPT-4 responda que o GPT-3 é o lançamento mais recente do modelo do OpenAI.
Se você quisesse ajudar um modelo baseado em GPT a responder com precisão à pergunta "qual modelo você está executando?", você precisaria fornecer essas informações ao modelo por meio de técnicas como engenharia de prompt da mensagem do sistema do modelo, RAG (Geração Aumentada Recuperada), que é a técnica usada pelo OpenAI do Azure em seus dados em que informações atualizadas são injetadas na mensagem do sistema no momento da consulta, ou por meio de ajuste em que você poderia ajustar versões específicas do modelo para responder a essa pergunta de uma certa maneira com base na versão do modelo.
Para saber mais sobre como os modelos de GPT são treinados e funcionam, recomendamos assistir à palestra de Andrej Karpathy no Build 2023 sobre o estado do GPT.
Perguntei ao modelo quando o corte de conhecimento é e ele me deu uma resposta diferente do que está na página do modelo do Azure OpenAI. Por que isso acontece?
Este comportamento é esperado. Os modelos não são capazes de responder perguntas sobre si mesmos. Se você quiser saber quando é o corte de conhecimento para os dados de treinamento do modelo, consulte a página de modelos.
Fiz uma pergunta ao modelo sobre algo que aconteceu recentemente antes do corte de conhecimento e ele errou a resposta. Por que isso acontece?
Este comportamento é esperado. Primeiro, não há garantia de que todos os eventos recentes façam parte dos dados de treinamento do modelo. E mesmo quando as informações fazem parte dos dados de treinamento, sem usar técnicas adicionais como a Recuperação de Geração Aumentada (RAG) para ajudar a aterrar as respostas do modelo, há sempre uma chance de respostas não em primeiro plano ocorrerem. O usa seu recurso de dados e o Bing Chat do OpenAI do Azure usam modelos do OpenAI do Azure combinados com a Geração Aumentada de Recuperação para ajudar a obter mais respostas do modelo de base.
A frequência que uma determinada informação apareceu nos dados de treinamento também pode afetar a probabilidade de que o modelo responda de uma determinada maneira.
Perguntar ao modelo mais recente do GPT-4 Turbo Preview sobre algo que mudou mais recentemente como "Quem é o primeiro-ministro da Nova Zelândia?", provavelmente resultará na resposta fabricada Jacinda Ardern
. No entanto, perguntar ao modelo "Quando Jacinda Ardern
renunciou ao cargo de primeiro-ministro?" Tende a produzir uma resposta precisa que demonstra o conhecimento de dados de treinamento que vai até pelo menos janeiro de 2023.
Portanto, embora seja possível investigar o modelo com perguntas para adivinhar seu corte de conhecimento de dados de treinamento, a página do modelo é o melhor lugar para verificar o corte de conhecimento de um modelo.
Onde posso acessar informações sobre preços para modelos antigos que não estão mais disponíveis para novas implantações?
Informações de preços herdadas estão disponíveis por meio de um arquivo PDF para download. Para todos os outros modelos, consulte a página de preços oficial.
Como faço para corrigir o InternalServerError - 500 - Falha ao criar a conclusão, pois o modelo gerou uma saída Unicode inválida?
Você pode minimizar a ocorrência desses erros reduzindo a temperatura das solicitações para menos de 1 e garantindo que você esteja usando um cliente com lógica de repetição. Tentar realizar a solicitação novamente geralmente resulta em uma resposta bem-sucedida.
Notamos encargos associados a chamadas à API que não foram concluídas com o código de status 400. Por que as chamadas à API com falha geram uma cobrança?
Se o serviço executar o processamento, você será cobrado mesmo se o código de status não for bem-sucedido (não 200). São exemplos comuns disso: um erro de 400 devido a um filtro de conteúdo ou limite de entrada ou um erro 408 devido a um tempo limite. Os encargos também ocorrerão quando um status 200
for recebido com um finish_reason
de content_filter
. Nesse caso, o prompt não teve problemas, mas a conclusão gerada pelo modelo foi detectada para violar as regras de filtragem de conteúdo, o que resulta na filtragem da conclusão.
Caso o serviço não execute o processamento, você não será cobrado. Por exemplo, um erro 401 devido à autenticação ou um erro 429 por exceder o Limite de taxa.
Obter acesso ao Serviço OpenAI do Azure
Como obter acesso ao OpenAI do Azure?
Um formulário de registro de acesso limitado não é necessário para acessar a maioria dos modelos do OpenAI do Azure. Saiba mais na página Acesso limitado do OpenAI do Azure.
Aprender mais e onde fazer perguntas
Onde posso ler sobre as atualizações mais recentes do OpenAI do Azure?
Para obter atualizações mensais, confira a página de novidades.
Onde posso obter treinamento para começar a aprender e desenvolver habilidades em relação ao OpenAI do Azure?
Onde posso postar perguntas e ver respostas para outras perguntas comuns?
- Recomendamos a postagem de perguntas no Microsoft Q&A.
- Como alternativa, você pode postar perguntas no Stack Overflow.
Onde posso encontrar o suporte ao cliente do OpenAI do Azure?
A OpenAI do Azure faz parte dos serviços de IA do Azure. Você pode saber mais sobre todas as opções de suporte para os serviços de IA do Azure no guia de opções de suporte e ajuda.
Modelos e ajuste fino
Quais modelos estão disponíveis?
Confira o guia de disponibilidade de modelo do OpenAI do Azure.
Onde posso descobrir em qual região um modelo está disponível?
Consulte o guia de disponibilidade do modelo do OpenAI do Azure para ver a disponibilidade de região.
Quais são os SLAs (Contratos de Nível de Serviço) no OpenAI do Azure?
Oferecemos um SLA de Disponibilidade para todos os recursos e um SLA de Latência para implantações gerenciadas provisionadas. Para obter mais informações sobre o SLA para Serviço OpenAI do Azure, consulte a Página de Contratos de Nível de Serviço (SLA) para Serviços Online.
Como habilitar o ajuste fino? Criar um modelo personalizado está esmaecido no Estúdio de IA do Azure.
Para acessar o ajuste fino com sucesso, é necessário ter o Colaborador de OpenAI de Serviços Cognitivos atribuído. Mesmo alguém com permissões de Administrador de Serviços de alto nível ainda precisaria dessa conta definida explicitamente para acessar o ajuste fino. Para obter mais informações, analise as diretrizes sobre controle de acesso baseado em função.
Qual é a diferença entre um modelo base e um modelo ajustado?
Um modelo base é aquele que não foi personalizado nem ajustado para um caso de uso específico. Os modelos ajustados são versões personalizadas de modelos base em que os pesos de um modelo são treinados em um conjunto exclusivo de prompts. Os modelos ajustados permitem obter melhores resultados em um número maior de tarefas sem a necessidade de fornecer exemplos detalhados de aprendizado no contexto como parte do prompt de conclusão. Para saber mais, examine o guia de ajuste fino.
Qual é o número máximo de modelos ajustados que posso criar?
100
Por que minha implantação de modelo ajustada foi excluída?
Se um modelo personalizado (ajustado) for implantado por mais de 15 dias durante os quais nenhuma conclusão for feita por chamada ou chat para isso, a implantação será automaticamente excluída (e nenhuma cobrança de hospedagem adicional será incorrida para essa implantação). O modelo personalizado subjacente permanece disponível e pode ser reimplantado a qualquer momento. Para saber mais, confira o artigo de instruções.
Como implantar um modelo com a API REST?
Atualmente, há duas APIs REST diferentes que permitem a implantação do modelo. Para obter os recursos mais recentes de implantação de modelos, como a capacidade de especificar uma versão do modelo durante a implantação de modelos como text-embedding-ada-002 Versão 2, use a chamada da API REST para Implantações - Criar Ou Atualizar.
Posso usar a cota para aumentar o limite máximo de token de um modelo?
Não, a alocação de tokens de cota por minuto (TPM) não está relacionada ao limite máximo de token de entrada de um modelo. Os limites de token de entrada do modelo são definidos na tabela de modelos e não são afetados pelas alterações feitas no TPM.
GPT-4 Turbo com Vision
Posso fazer o ajuste fino dos recursos de imagem no GPT-4?
Não, não oferecemos suporte ao ajuste fino dos recursos de imagem do GPT-4 no momento.
Posso usar o GPT-4 para gerar imagens?
Não, você pode usar dall-e-3
para gerar imagens e gpt-4-vision-preview
para reconhecer as imagens.
Que tipo de arquivos posso carregar?
Atualmente, oferecemos suporte para PNG (.png), JPEG (.jpeg e .jpg), WEBP (.webp) e GIF não animado (.gif).
Há um limite para o tamanho da imagem que posso carregar?
Sim, restringimos os uploads de imagem a 20 MB por imagem.
Posso excluir uma imagem que carreguei?
Não, excluiremos a imagem para você automaticamente depois que ela for processada pelo modelo.
Como funcionam os limites de taxa para GPT-4 Turbo com Vision?
Processamos imagens no nível do token, portanto, cada imagem que processamos conta para o limite de seus tokens por minuto (TPM). Consulte a seção Tokens de imagem da Visão Geral para obter detalhes sobre a fórmula usada para determinar a contagem de tokens por imagem.
O GPT-4 Turbo com Vision consegue reconhecer os metadados de imagem?
Não, o modelo não recebe metadados de imagem.
O que acontece se minha imagem não estiver nítida?
Se uma imagem for ambígua ou não estiver clara, o modelo fará o possível para interpretá-la. No entanto, os resultados podem ser menos precisos. Uma boa regra geral é que, se a média de seres humanos não consegue ver as informações em uma imagem nas resoluções usadas no modo de resolução baixa/alta, então o modelo também não consegue.
Quais são as limitações conhecidas do GPT-4 Turbo com Vision?
Consulte a seção de limitações do guia de conceitos do GPT-4 Turbo com Vision.
Continuo recebendo respostas truncadas quando uso modelos de visão do GPT-4 Turbo. Por que isso está acontecendo?
Por padrão, o GPT-4 vision-preview
e o GPT-4 turbo-2024-04-09
têm um valor de max_tokens
de 16. Dependendo da sua solicitação, esse valor costuma ser muito baixo e pode resultar em respostas truncadas. Para resolver esse problema, aprove um valor de max_tokens
como parte das solicitações de APIs de preenchimentos do seu chat. O GPT-4o usa como padrão um max_tokens de 4.096.
Assistentes
Você armazena dados usados na API de Assistentes?
Sim. Ao contrário da API de Conclusões de Chat, os Assistentes OpenAI do Azure são uma API com estado, o que significa que ela retém dados. Há dois tipos de dados armazenados na API de Assistentes:
- Entidades com estado: Threads, mensagens e execuções criadas durante o uso de Assistentes.
- Arquivos: carregados durante a instalação dos Assistentes ou como parte de uma mensagem.
Onde esses dados são armazenados?
Os dados são armazenados em uma conta de armazenamento segura e gerenciada pela Microsoft que é separada logicamente.
Quanto tempo esses dados são armazenados?
Todos os dados usados persistem nesse sistema, a menos que você exclua explicitamente esses dados. Use a função deletar com a ID do thread que você deseja excluir. Limpar a execução no Playground de Assistentes não exclui threads, no entanto, excluí-los usando a função de exclusão não os listará na página de thread.
Posso trazer meu próprio repositório de dados para usar com assistentes?
Não. Atualmente, os Assistentes dão suporte apenas a arquivos locais carregados no armazenamento gerenciado por Assistentes. Você não pode usar sua conta de armazenamento privada com assistentes.
Os Assistentes dão suporte à criptografia com chave gerenciada pelo cliente (CMK)?
Hoje, damos suporte a CMKs para Threads e Arquivos em Assistentes. Confira a página de Novidades das regiões disponíveis para esse recurso.
Meus dados são usados pela Microsoft para modelos de treinamento?
Não. Os dados não são usados para a Microsoft não usados para modelos de treinamento. Consulte a documentação de IA responsável para obter mais informações.
Onde os dados são armazenados geograficamente?
Os pontos de extremidade dos Assistentes OpenAI do Azure são regionais e os dados são armazenados na mesma região que o ponto de extremidade. Para obter mais informações, consulte a documentação de residência de dados do Azure.
Como sou cobrado pelos Assistentes?
- Custo de inferência (entrada e saída) do modelo base que você está usando para cada Assistente (por exemplo, gpt-4-0125). Se você tiver criado vários Assistentes, será cobrado pelo modelo base anexado a cada Assistente.
- Se você habilitou a ferramenta Interpretador de Código. Por exemplo, se o assistente chamar o Interpretador de Código simultaneamente em dois threads diferentes, isso criará duas sessões de Interpretador de Código, cada uma delas será cobrada. Cada sessão está ativa por padrão por uma hora, o que significa que você só pagaria essa taxa uma vez se o usuário continuar dando instruções ao Interpretador de Código no mesmo thread por até uma hora.
- A pesquisa de arquivos é cobrada com base no armazenamento de vetor usado.
Para saber mais, confira a página de preço.
Há algum preço ou cota adicional para usar assistentes?
Não. Todas as cotas se aplicam ao uso de modelos com Assistentes.
A API de Assistentes dá suporte a modelos não Azure OpenAI?
A API de assistentes só dá suporte a modelos do Azure OpenAI.
A API de Assistentes está disponível em geral?
A API de Assistentes está atualmente em versão prévia pública. Mantenha-se informado sobre nossas atualizações de produtos mais recentes visitando regularmente nossa página Novidades.
Quais são alguns exemplos ou outros recursos que posso usar para aprender sobre assistentes?
Consulte os artigos de Conceitual, início rápido, instruções para obter informações sobre como começar e usar assistentes. Você também pode conferir exemplos de código dos Assistentes OpenAI do Azure no GitHub.
Aplicativo Web
Como personalizar meu aplicativo web publicado?
Você pode personalizar seu aplicativo web publicado no portal do Azure. O código-fonte do aplicativo web publicado está disponível no GitHub, onde você pode encontrar informações sobre como alterar o front-end do aplicativo, bem como instruções para compilar e implantar o aplicativo.
Meu aplicativo web será substituído quando eu implantar o aplicativo novamente a partir do Estúdio de IA do Azure?
O código do aplicativo não será substituído quando você atualizar o aplicativo. O aplicativo será atualizado para usar o recurso de OpenAI do Azure, o índice da Pesquisa de IA do Azure (se você estiver usando o OpenAI do Azure em seus dados) e as configurações de modelo selecionadas no Estúdio de IA do Azure sem nenhuma alteração na aparência ou funcionalidade.
Usando seus dados
O que é o Azure OpenAI nos seus dados?
O OpenAI do Azure nos seus dados é um recurso dos Serviços OpenAI do Azure que ajuda as organizações a gerar insights personalizados, conteúdos e pesquisas usando as fontes de dados designadas. O serviço funciona com os recursos dos modelos OpenAI no OpenAI do Azure para fornecer respostas mais precisas e relevantes às consultas dos usuários em linguagem natural. O OpenAI do Azure nos seus dados pode ser integrado aos aplicativos e fluxos de trabalho existentes do cliente, oferece insights sobre os principais indicadores de desempenho e pode interagir com os usuários sem problemas.
Como posso acessar o OpenAI do Azure nos seus dados?
Todos os clientes do OpenAI do Azure podem usar o OpenAI do Azure nos seus dados por meio do Estúdio de IA do Azure e da API REST.
Quais fontes de dados são compatíveis com o Azure OpenAI nos seus dados?
O OpenAI do Azure nos seus dados dá suporte à ingestão a partir do Busca com IA do Azure, Armazenamento de Blobs do Azure e carregamento de arquivos locais. Você pode saber mais sobre o OpenAI do Azure nos seus dados lendo o artigo conceitual e o início rápido.
Quanto custa usar o OpenAI do Azure nos seus dados?
Na utilização do OpenAI do Azure nos seus dados, você terá custos ao usar a Busca com IA do Azure, o Armazenamento de Blobs do Azure, o Serviço de Aplicativo Web do Azure, a pesquisa semântica e os modelos OpenAI. Não há nenhum custo adicional para usar o recurso "seus dados" no Estúdio de IA do Azure.
Como personalizar ou automatizar o processo de criação de índice?
Você pode preparar o índice por conta própria usando um script fornecido no GitHub. O uso desse script criará um índice do Azure AI Search com todas as informações necessárias para usar melhor seus dados, com seus documentos divididos em partes gerenciáveis. Consulte o arquivo README com o código de preparação de dados para obter detalhes sobre como executá-lo.
Como posso atualizar meu índice?
Você pode agendar uma atualização de índice automática ou carregar mais dados no seu contêiner de blobs do Azure e usá-los como a fonte de dados ao criar um índice. O novo índice incluirá todos os dados no seu contêiner.
Quais tipos de arquivo são compatíveis com o Azure OpenAI nos seus dados?
Confira Usando seus dados para mais informações sobre tipos de arquivo compatíveis.
A IA responsável é compatível com o OpenAI do Azure nos seus dados?
Sim, o OpenAI do Azure em seus dados faz parte do Serviço OpenAI do Azure e funciona com os modelos disponíveis no OpenAI do Azure. Os recursos de filtragem de conteúdo e monitoramento de abuso do OpenAI do Azure ainda se aplicam. Para obter mais informações, consulte a visão geral das práticas de IA Responsável para modelos de OpenAI do Azure e a Nota de Transparência para o OpenAI do Azure para obter diretrizes adicionais sobre como usar o OpenAI do Azure nos seus dados com responsabilidade.
Há um limite de tokens na mensagem do sistema?
Sim, o limite de tokens na mensagem do sistema é 400. Se a mensagem do sistema for superior a 400 tokens, o restante dos tokens além dos primeiros 400 será ignorado. Essa limitação só se aplica ao Azure OpenAI em seu recurso de dados.
O OpenAI do Azure nos seus dados dá suporte à chamada de função?
Atualmente, o OpenAI do Azure nos seus dados não dá suporte à chamada de função.
O idioma de consulta e da fonte de dados precisam ser iguais?
Você deve enviar consultas no mesmo idioma dos seus dados. Seus dados podem estar em qualquer um dos idiomas compatíveis com a Busca da IA do Azure.
Se a Pesquisa Semântica estiver habilitada para meu recurso de Pesquisa de IA do Azure, ela será aplicada automaticamente ao OpenAI do Azure em seus dados no Estúdio de IA do Azure?
Quando você seleciona "Busca da IA do Azure" como a fonte de dados, pode optar por aplicar a pesquisa semântica. Se você selecionar "Contêiner de Blobs do Azure" ou "Carregar arquivos" como fonte de dados, poderá criar o índice normalmente. Posteriormente, você re-inserção dos dados usando a opção "Azure AI Search" para selecionar o mesmo índice e aplicar a Pesquisa Semântica. Assim, você estará pronto para conversar sobre seus dados com a pesquisa semântica aplicada.
Como posso adicionar inserções de vetor ao indexar meus dados?
Ao selecionar "Contêiner de Blobs do Azure", "Busca da IA do Azure" ou "Carregar arquivos" como a fonte de dados, você também pode selecionar uma implantação de modelo de inserção do Ada a ser usada ao ingerir seus dados. Isso criará um índice do Busca da IA do Azure com inserções de vetor.
Por que a criação de índice está falhando depois que eu adiciono um modelo de inserção?
A criação de índice pode falhar ao adicionar inserções ao índice se o limite de taxa na implantação do modelo de inserção do Ada for muito baixo ou se você tiver um conjunto muito grande de documentos. Você pode usar esse script fornecido no GitHub para criar o índice com inserções manualmente.
Compromisso de Direitos Autorais do Cliente
Como obter cobertura sob o Compromisso de Direitos Autorais do Cliente?
O Compromisso de Direitos Autorais do Cliente é uma provisão a ser incluída em 1º de dezembro de 2023, Termos do Produto da Microsoft que descreve a obrigação da Microsoft de defender clientes contra determinadas declarações de propriedade intelectual de terceiros relacionadas ao Conteúdo de Saída. Se o assunto da declaração for o Conteúdo de Saída gerado pelo Serviço OpenAI do Azure (ou qualquer outro Produto Coberto que permita aos clientes configurar os sistemas de segurança), para receber cobertura, o cliente deverá ter implementado todas as mitigações exigidas pela documentação do Serviço OpenAI do Azure na oferta que entregou o Conteúdo de Saída. As mitigações necessárias são documentadas aqui e atualizadas continuamente. Para novos serviços, recursos, modelos ou casos de uso, novos requisitos de CCC serão postados e entrarão em vigor no ou após o lançamento desse serviço, recurso, modelo ou caso de uso. Caso contrário, os clientes terão seis meses a partir do momento da publicação para implementar novas mitigações para manter a cobertura no CCC. Se um cliente apresentar uma declaração, o cliente será obrigado a demonstrar a conformidade com os requisitos relevantes. Essas mitigações são necessárias para os Produtos Cobertos que permitem que os clientes configurem os sistemas de segurança, incluindo o Serviço OpenAI do Azure; elas não afetam a cobertura para clientes que usam outros Produtos Cobertos.