Perguntas frequentes sobre prompts e recursos de geração de texto
Essas perguntas frequentes (FAQ) descrevem o impacto da IA do recurso de prompts do AI Builder.
O que são prompts?
O recurso de prompts oferece AI Builder aos usuários um recurso versátil para desenvolver fluxos de trabalho com tecnologia de IA, aplicativos, transformação de dados e personalização de copilotos. Ele permite a criação de fluxos de trabalho e aplicativos que resumem documentos, criam rascunhos de respostas, classificam textos e traduzem idiomas. Esse recurso é da plataforma Serviço OpenAI do Azure, que utiliza a tecnologia Transformador Generativo Pré-Treinado (GPT). Esses modelos foram treinados em grandes quantidades de dados de texto, permitindo-lhes gerar texto que se assemelha ao conteúdo escrito por humanos.
Saiba mais sobre Nota de transparência para o serviço OpenAI do Azure.
Quais são os casos de uso desejados de prompts?
Os prompts no AI Builder permitem a criação de aplicativos e fluxos de trabalho inteligentes, além da extensão dos copilotos. Eles aproveitam as capacidades de modelos de GPT pré-treinados, o que elimina a necessidade de treinamento do modelo personalizado. Por exemplo, a intenção pode ser criar um fluxo de trabalho que resuma as reclamações recebidas dos clientes. Em seguida, ele cria um ticket em uma ferramenta de gerenciamento de incidentes com base na categoria da reclamação recebida. Neste exemplo, os criadores podem instruir o modelo a categorizar e resumir a reclamação recebida para criar um novo incidente.
A lista a seguir contém os casos de uso mais populares para este serviço:
- Resumo de emails, conversas, transcrições, documentos e muito mais.
- Sugestões de rascunhos de respostas a consultas de clientes, reclamações, email e muito mais.
- Extração de informações de contratos, emails, fatura, ordens e muito mais.
- Classificação do conteúdo nas categorias desejadas (por exemplo, se um email é uma ordem, uma reclamação ou uma devolução).
- Análise de sentimento de um determinado texto (por exemplo, identificar o sentimento de uma revisão de produto).
- Extrair conteúdo de documentos ou imagens (por exemplo, extrair informações de faturas ou descrever objetos em uma imagem).
Em todos esses casos, os usuários são responsáveis pelo resultado final do sistema. Eles devem revisar o conteúdo gerado quanto a possíveis imprecisões ou incompletude antes de usá-lo.
Como a prontidão do recurso de prompts foi avaliada? Quais métricas são usadas para medir o desempenho?
A avaliação deste recurso de avaliação envolve testes abrangentes em uma variedade de parâmetros de segurança. Esse teste garante que o recurso esteja alinhado com os padrões e os princípios de IA responsável de nossa organização. O serviço também é continuamente avaliado quanto a possíveis vulnerabilidades. As métricas de desempenho que usamos envolvem principalmente a eficiência da filtragem de conteúdo e o grau de concordância entre humanos e computadores em conteúdo filtrado versus não filtrado.
Que tipo de moderação de conteúdo é implementada para prompts?
Os modelos GPT são treinados em dados da Internet, o que é ótimo para a construção de um modelo mundial geral. Ao mesmo tempo, pode herdar conteúdo tóxico, prejudicial e tendencioso das mesmas fontes. Os modelos são treinados para se comportarem com segurança e não produzirem conteúdo nocivo, mas às vezes podem gerar saída tóxica. Os prompts do AI Builder aproveitam o serviço Segurança de Conteúdo de IA do Azure para incorporar recursos de moderação de conteúdo de última geração nos prompts de IA. Isso inclui serviços para analisar a saída gerada com scanners de texto de várias severidades e segurança contra ataques de entrada imediata. A saída também é escaneada para insuficiência do material protegido.
Quais são as limitações do recurso de prompts? Como os usuários podem minimizar o impacto das limitações de prompt ao usar o sistema?
O uso dessa tecnologia deve estar de acordo com os requisitos do Código de conduta do Serviço OpenAI do Azure. Esta tecnologia não deve ser usada para gerar conteúdo associado a propaganda política, discurso de ódio, desinformação, automutilação, discriminação, material sexual explícito ou outro conteúdo proibido pelo Código de Conduta. Os aplicativos não suportados desta tecnologia incluem o fornecimento de conselhos, uso para orientação legal, financeira, relacionada à saúde ou previsões futuras, bem como cálculos financeiros, científicos ou matemáticos e qualquer outro uso não suportado mencionado na Nota de Transparência para Serviço OpenAI do Azure.
O conteúdo gerado por IA pode conter erros, portanto, os criadores devem informar aos usuários finais de sua solução que a geração de conteúdo por esse modelo é criada por IA de maneira transparente. A comunicação clara do conteúdo gerado ajuda a evitar o excesso de confiança. Os criadores também deve infundir a possibilidade da etapa de revisão humana para garantir que o conteúdo gerado pela IA seja preciso e apropriado antes de usá-lo.
Quais fatores e configurações operacionais permitem o uso eficaz e responsável do sistema?
O conteúdo gerado pelo modelo de IA é de natureza probabilística e, portanto, as respostas do modelo podem variar para o mesmo prompt. A resposta gerada pode estar incorreta ou enganosa e pode causar resultados não intencionais do fluxo ou do aplicativo. Por exemplo, clientes empresariais podem receber informações, recomendações ou suporte errados ou incorretos. Os criadores devem implementar uma supervisão humana significativa em seus fluxos e aplicativos e testar seus prompts quanto ao potencial de gerar comportamentos nocivos ou conteúdo proibido, conforme listado no Código de Conduta da Microsoft. Os desenvolvedores de baixo código também devem ser transparentes sobre o uso de IA em seus aplicativos e fluxos para informar o usuário comercial, indicando que o conteúdo é gerado por IA. Além disso, as respostas geradas podem não corresponder às expectativas do desenvolvedor de código baixo devido a restrições de tamanho, filtragem de conteúdo ou seleção de modelo.
Como o modelo GPT é chamado, onde ele está hospedado e como posso acessá-lo?
O AI Builder suporta a família de modelos GPT 4o, que está hospedada no Serviço OpenAI Azure. Você pode acessar esses modelos por meio dos prompts no Power Platform seus aplicativos, fluxos e copilotos.
Saiba mais em Novidades no Serviço OpenAI do Azure?
Meus dados são usados para treinar ou melhorar os grandes modelos de linguagem disponíveis no AI Builder?
Os prompts do AI Builder executados no serviço OpenAI do Azure hospedado pela Microsoft. Os dados do cliente não são usados para treinar ou melhorar nenhum dos modelos básicos do serviço OpenAI do Azure. A Microsoft não compartilha seus dados do cliente com terceiros, a menos que você dê permissão. Nem os prompts do cliente (entrada) com seus dados de embasamento nem as respostas do modelo (saída) são usados para treinar ou melhorar os modelos básicos do serviço OpenAI do Azure.
O conteúdo adicionado à ação 'Criar texto com GPT usando um prompt' é acessível publicamente?
A guia Sobre da ação diz, Esta ação fornece acesso aos seus prompts aproveitando o modelo GPT em execução no Serviço OpenAI do Azure.
Os prompts que você adiciona à ação Criar texto com GPT usando um prompt no Power Automate são privados por padrão. Eles só são visíveis e utilizáveis dentro da sua organização, não acessíveis ao mundo. Os prompts são particulares e destinam-se ao uso interno em sua empresa.
Os prompts recém-criados são privados por padrão. Isso significa que eles são visíveis e utilizáveis no Power Automate, Power Apps e Microsoft Copilot Studio somente pela pessoa que os criou. Isso dá ao criador tempo para testá-los e avaliá-los em aplicativos ou fluxos de trabalho e garantir sua precisão antes de compartilhá-los.
Se quiser que outros usuários do ambiente ou grupos usem seu prompt no Power Apps ou Power Automate, será necessário compartilhá-lo.
Saiba mais em Compartilhar seu prompt.
Como as imagens de pessoas são processadas nos prompts do AI Builder?
O AI Builder não se destina a ser usado para identificar indivíduos com base em características faciais ou dados biométricos. Quando você envia imagens contendo pessoas no AI Builder, o sistema aplica automaticamente um recurso de desfoque facial antes de analisar as imagens para proteger a privacidade individual. Essa etapa de desfoque ajuda a resolver preocupações de privacidade, impedindo a identificação com base em características faciais. Com o desfoque, nenhum reconhecimento facial ou correspondência de modelo facial está envolvido. Em vez disso, qualquer identificação de indivíduos conhecidos depende de pistas contextuais, como uniformes ou configurações exclusivas, não em seus rostos. Essa medida de privacidade não deve afetar a qualidade dos resultados que você recebe. O desfoque facial pode ser ocasionalmente referenciado nas respostas do sistema.
Saiba mais em Desfoque facial.
O que são prompts personalizados e funções de IA?
Prompts personalizados
Prompts personalizados dão aos criadores a liberdade de instruir o modelo de linguagem grande (LLM) a se comportar de uma determinada maneira ou a executar uma tarefa específica. Ao elaborar cuidadosamente um prompt, você pode gerar respostas que atendam às suas necessidades de negócios específicas. Isso transforma o modelo LLM em uma ferramenta flexível para realizar diversas tarefas.
Exemplo
Com um modelo de linguagem, uma solicitação personalizada pode orientar o modelo GPT para responder a uma pergunta, completar texto, traduzir idiomas, resumir um documento, identificar tarefas, pendências e itens de ação no texto e extrair conteúdo de imagens ou documentos. A complexidade de uma solicitação personalizada pode variar de uma única frase a algo mais complexo, dependendo da tarefa.
Funções de IA
Funções de IA pré-criados são prompts pré-configurados criados pela equipe da Microsoft para ajudar os criadores a realizar tarefas comuns com facilidade. Eles oferecem recursos de IA prontos para uso em vários casos de uso, o que simplifica a experiência do fabricante para infundir inteligência em suas soluções.
Exemplo
O prompt predefinido de um modelo de linguagem poderia ser assim:
Extraia como uma lista numerada os pontos de ação de: [TextToExtract]
Neste caso, o usuário só precisa fornecer o texto [TextToExtract]
do qual deseja extrair os pontos de ação. O prompt predefinido cuida do resto.