Compartilhar via


Usar o Azure OpenAI no Fabric com o SDK do Python e o Synapse ML (versão prévia)

Importante

Esse recurso está em versão prévia.

Este artigo mostra exemplos de como usar o Azure OpenAI no Fabric com o SDK do Python do OpenAI e com o SynapseML.

Pré-requisitos

O SDK do Python do OpenAI não está instalado no runtime padrão, primeiro você precisa instalá-lo.

%pip install openai==0.28.1

Chat

ChatGPT e GPT-4 são modelos de linguagem otimizados para interfaces de conversa. O exemplo apresentado aqui mostra as operações simples de conclusão de chat e não se destina a atuar como tutorial.

import openai

response = openai.ChatCompletion.create(
    deployment_id='gpt-35-turbo-0125', # deployment_id could be one of {gpt-35-turbo-0125 or gpt-4-32k}
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Knock knock."},
        {"role": "assistant", "content": "Who's there?"},
        {"role": "user", "content": "Orange."},
    ],
    temperature=0,
)

print(f"{response.choices[0].message.role}: {response.choices[0].message.content}")

Saída

    assistant: Orange who?

Também podemos transmitir a resposta

response = openai.ChatCompletion.create(
    deployment_id='gpt-35-turbo-0125', # deployment_id could be one of {gpt-35-turbo-0125 or gpt-4-32k}
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Knock knock."},
        {"role": "assistant", "content": "Who's there?"},
        {"role": "user", "content": "Orange."},
    ],
    temperature=0,
    stream=True
)

for chunk in response:
    delta = chunk.choices[0].delta

    if "role" in delta.keys():
        print(delta.role + ": ", end="", flush=True)
    if "content" in delta.keys():
        print(delta.content, end="", flush=True)

Saída

    assistant: Orange who?

Incorporações

Uma inserção é um formato especial de representação de dados que os algoritmos e modelos de machine learning podem utilizar facilmente. Ela contém o significado semântico repleto de informações de um texto, representado por um vetor de números de ponto flutuante. A distância entre duas inserções no espaço vetorial está relacionada à semelhança semântica entre duas entradas originais. Por exemplo, se dois textos forem semelhantes, suas representações de vetor também deverão ser semelhantes.

O exemplo demonstrado aqui mostra como obter inserções e não se destina a atuar como tutorial.

deployment_id = "text-embedding-ada-002" # set deployment_name as text-embedding-ada-002
embeddings = openai.Embedding.create(deployment_id=deployment_id,
                                     input="The food was delicious and the waiter...")
                                
print(embeddings)

Saída

    {
      "object": "list",
      "data": [
        {
          "object": "embedding",
          "index": 0,
          "embedding": [
            0.002306425478309393,
            -0.009327292442321777,
            0.015797346830368042,
            ...
            0.014552861452102661,
            0.010463837534189224,
            -0.015327490866184235,
            -0.01937841810286045,
            -0.0028842221945524216
          ]
        }
      ],
      "model": "ada",
      "usage": {
        "prompt_tokens": 8,
        "total_tokens": 8
      }
    }