Tutorial: Verwenden von Codeinterpretersitzungen in LangChain mit Azure Container Apps
LangChain ist ein Framework, das die Erstellung von Anwendungen mit großen Sprachmodellen (Large Language Models, LLMs) vereinfacht. Wenn Sie einen KI-Agenten mit LangChain erstellen, interpretiert ein LLM die Benutzereingabe und generiert eine Antwort. Der KI-Agent hat häufig Probleme beim Durchführen von mathematischen und symbolischen Begründungen, um eine Antwort zu erzeugen. Durch die Integration dynamischer Azure Container Apps-Sitzungen in LangChain geben Sie dem Agenten einen Codeinterpreter oder Codedolmetscher, um spezielle Aufgaben auszuführen.
In diesem Tutorial erfahren Sie, wie Sie einen LangChain-KI-Agenten in einer Web-API ausführen. Die API akzeptiert Benutzereingaben und gibt eine vom KI-Agenten generierte Antwort zurück. Der Agent verwendet einen Codeinterpreter in dynamischen Sitzungen, um Berechnungen durchzuführen.
Hinweis
Dynamische Azure Container Apps-Sitzungen befinden sich derzeit in der Vorschau. Weitere Informationen finden Sie unter Einschränkungen der Vorschauversion.
Voraussetzungen
- Ein Azure-Konto mit einem aktiven Abonnement.
- Falls Sie keins haben, können Sie kostenlos eins erstellen.
- Installieren Sie die Azure CLI.
- Git.
- Python 3.10 oder höher.
Erstellen von Azure-Ressourcen
Die Beispiel-App in dieser Schnellstartanleitung verwendet ein LLM von Azure OpenAI. Außerdem werden Azure Container Apps-Sitzungen verwendet, um Code auszuführen, der vom LLM generiert wird.
Aktualisieren Sie die Azure CLI auf die neueste Version.
az upgrade
Entfernen Sie die Azure Container Apps-Erweiterung, wenn sie bereits installiert ist, und installieren Sie eine Vorschauversion der Azure Container Apps-Erweiterung, die Befehle für Sitzungen enthält:
az extension remove --name containerapp az extension add \ --name containerapp \ --allow-preview true -y
Melden Sie sich bei Azure an:
az login
Legen Sie die Variablen fest, die in dieser Schnellstartanleitung verwendet werden:
RESOURCE_GROUP_NAME=aca-sessions-tutorial AZURE_OPENAI_LOCATION=swedencentral AZURE_OPENAI_NAME=<UNIQUE_OPEN_AI_NAME> SESSION_POOL_LOCATION=eastasia SESSION_POOL_NAME=code-interpreter-pool
Ersetzen Sie
<UNIQUE_OPEN_AI_NAME>
durch einen eindeutigen Namen, um Ihr Azure OpenAI-Konto zu erstellen.Erstellen Sie eine Ressourcengruppe:
az group create --name $RESOURCE_GROUP_NAME --location $SESSION_POOL_LOCATION
Erstellen Sie ein Azure OpenAI-Konto:
az cognitiveservices account create \ --name $AZURE_OPENAI_NAME \ --resource-group $RESOURCE_GROUP_NAME \ --location $AZURE_OPENAI_LOCATION \ --kind OpenAI \ --sku s0 \ --custom-domain $AZURE_OPENAI_NAME
Erstellen Sie eine GPT 3.5 Turbo-Modellimplementierung namens
gpt-35-turbo
im Azure OpenAI-Konto:az cognitiveservices account deployment create \ --resource-group $RESOURCE_GROUP_NAME \ --name $AZURE_OPENAI_NAME \ --deployment-name gpt-35-turbo \ --model-name gpt-35-turbo \ --model-version "1106" \ --model-format OpenAI \ --sku-capacity "100" \ --sku-name "Standard"
Erstellen Sie einen Sitzungspool für den Codeinterpreter:
az containerapp sessionpool create \ --name $SESSION_POOL_NAME \ --resource-group $RESOURCE_GROUP_NAME \ --location $SESSION_POOL_LOCATION \ --max-sessions 100 \ --container-type PythonLTS \ --cooldown-period 300
Lokales Ausführen der Beispiel-App
Bevor Sie die App in Azure Container Apps bereitstellen, können Sie sie lokal ausführen, um sie zu testen.
Klonen der App
Klonen Sie das Repository mit Azure Container Apps-Sitzungsbeispielen.
git clone https://github.com/Azure-Samples/container-apps-dynamic-sessions-samples.git
Wechseln Sie zum Verzeichnis mit der Beispiel-App:
cd container-apps-dynamic-sessions-samples/langchain-python-webapi
Konfigurieren der App
Erstellen Sie eine virtuelle Python-Umgebung, und aktivieren Sie sie:
python3.11 -m venv .venv source .venv/bin/activate
Ändern Sie die Python-Version im Befehl, wenn Sie eine andere Version verwenden. Es wird empfohlen, Python 3.10 oder höher zu verwenden.
Hinweis
Wenn Sie Windows verwenden, ersetzen Sie
.venv/bin/activate
durch.venv\Scripts\activate
.Installieren Sie die erforderlichen Python-Pakete:
python -m pip install -r requirements.txt
Zum Ausführen der App müssen Sie Umgebungsvariablen konfigurieren.
Rufen Sie den Azure OpenAI-Kontoendpunkt ab:
az cognitiveservices account show \ --name $AZURE_OPENAI_NAME \ --resource-group $RESOURCE_GROUP_NAME \ --query properties.endpoint \ --output tsv
Rufen Sie den Verwaltungsendpunkt für den Azure Container Apps-Sitzungspool ab:
az containerapp sessionpool show \ --name $SESSION_POOL_NAME \ --resource-group $RESOURCE_GROUP_NAME \ --query properties.poolManagementEndpoint \ --output tsv
Erstellen Sie eine
.env
-Datei im Stammverzeichnis des Beispiel-App-Verzeichnisses (gleicher Speicherort wiemain.py
). Fügen Sie der Datei Folgendes hinzu:AZURE_OPENAI_ENDPOINT=<AZURE_OPENAI_ENDPOINT> POOL_MANAGEMENT_ENDPOINT=<SESSION_POOL_MANAGEMENT_ENDPOINT>
Ersetzen Sie
<AZURE_OPENAI_ENDPOINT>
durch den Azure OpenAI-Kontoendpunkt und<SESSION_POOL_MANAGEMENT_ENDPOINT>
durch den Verwaltungsendpunkt für den Sitzungspool.
Die App verwendet
DefaultAzureCredential
für die Authentifizierung mit Azure-Diensten. Auf Ihrem lokalen Computer verwendet sie Ihre aktuellen Azure CLI-Anmeldeinformationen. Sie müssen sich selbst die Rolle Cognitive Services OpenAI-Benutzer für das Azure OpenAI-Konto geben, damit die App auf die Modellendpunkte zugreifen kann. Weiterhin müssen Sie sich die Rolle Azure ContainerApps-Sitzungsausführer für den Sitzungspool geben, damit die App auf den Sitzungspool zugreifen kann.Rufen Sie Ihren Azure CLI-Benutzernamen ab:
az account show --query user.name --output tsv
Führen Sie die folgenden Befehle aus, um die Ressourcen-ID des Azure OpenAI-Kontos abzurufen:
az cognitiveservices account show --name $AZURE_OPENAI_NAME --resource-group $RESOURCE_GROUP_NAME --query id --output tsv
Weisen Sie Ihrem Azure CLI-Benutzer für das Azure OpenAI-Konto die Rolle Cognitive Services OpenAI-Benutzer zu:
az role assignment create --role "Cognitive Services OpenAI User" --assignee <CLI_USERNAME> --scope <AZURE_OPENAI_RESOURCE_ID>
Ersetzen Sie
<CLI_USERNAME>
durch Ihren Azure CLI-Benutzernamen und<AZURE_OPENAI_RESOURCE_ID>
durch die Ressourcen-ID des Azure OpenAI-Kontos.Führen Sie die folgenden Befehle aus, um die Ressourcen-ID des Sitzungspools abzurufen:
az containerapp sessionpool show --name $SESSION_POOL_NAME --resource-group $RESOURCE_GROUP_NAME --query id --output tsv
Weisen Sie Ihrem Azure CLI-Benutzer mit der ID die Rolle Azure ContainerApps-Sitzungsausführer für den Sitzungspool zu:
az role assignment create \ --role "Azure ContainerApps Session Executor" \ --assignee <CLI_USERNAME> \ --scope <SESSION_POOL_RESOURCE_ID>
Ersetzen Sie
<CLI_USERNAME>
durch Ihren Azure CLI-Benutzernamen und<SESSION_POOL_RESOURCE_ID>
durch die Ressourcen-ID des Sitzungspools.
Ausführen der App
Öffnen Sie vor dem Ausführen der Beispiel-App main.py in einem Editor, und überprüfen Sie den Code. Die App verwendet FastAPI zum Erstellen einer Web-API, die eine Benutzernachricht in der Abfragezeichenfolge akzeptiert.
In den folgenden Codezeilen wird ein SessionPythonREPLTool instanziiert und für den LangChain-Agenten bereitgestellt:
repl = SessionsPythonREPLTool(pool_management_endpoint=pool_management_endpoint)
tools = [repl]
prompt = hub.pull("hwchase17/openai-functions-agent")
agent = agents.create_tool_calling_agent(llm, tools, prompt)
Wenn der Agent Berechnungen ausführen muss, verwendet er das SessionPythonREPLTool, um den Code auszuführen. Der Code wird in einer Sitzung im Sitzungspool ausgeführt. Standardmäßig wird ein zufälliger Sitzungsbezeichner generiert, wenn Sie das Tool instanziieren. Wenn der Agent das Tool zum Ausführen mehrerer Python-Codeschnipsel verwendet, wird dieselbe Sitzung verwendet. Um sicherzustellen, dass jeder Endbenutzer über eine eindeutige Sitzung verfügt, verwenden Sie einen separaten Agenten und ein eigenes Tool für jeden Benutzer.
SessionPythonREPLTool ist im langchain-azure-dynamic-sessions
-Paket verfügbar.
Führen Sie die Beispiel-App aus:
fastapi dev main.py
Öffnen Sie einen Browser, und navigieren Sie zu
http://localhost:8000/docs
. Die Swagger-Benutzeroberfläche für die Beispiel-App wird angezeigt.Erweitern Sie den Endpunkt
/chat
, und wählen Sie Ausprobieren aus.Geben Sie
What time is it right now?
in das Feldmessage
ein, und wählen Sie Ausführen aus.Der Agent antwortet mit der aktuellen Uhrzeit. Im Terminal sehen Sie die Protokolle, aus denen hervorgeht, dass der Agent Python-Code zum Abrufen der aktuellen Zeit generiert und in einer Codeinterpretersitzung ausgeführt hat.
Geben Sie zum Beenden der App
Ctrl+C
in das Terminal ein.
Optional: Bereitstellen der Beispiel-App in Azure Container Apps
Um die FastAPI-App in Azure Container Apps bereitzustellen, müssen Sie ein Containerimage erstellen und an eine Containerregistrierung übertragen. Dann können Sie das Image in Azure Container Apps bereitstellen. Der Befehl az containerapp up
kombiniert diese Schritte in einem einzigen Befehl.
Anschließend müssen Sie die verwaltete Identität für die App konfigurieren und ihr die richtigen Rollen zuweisen, um auf Azure OpenAI und den Sitzungspool zuzugreifen.
Legen Sie die Variablen für die Container Apps-Umgebung und den App-Namen fest:
ENVIRONMENT_NAME=aca-sessions-tutorial-env CONTAINER_APP_NAME=chat-api
Erstellen Sie die App, und stellen Sie sie in Azure Container Apps bereit:
az containerapp up \ --name $CONTAINER_APP_NAME \ --resource-group $RESOURCE_GROUP_NAME \ --location $SESSION_POOL_LOCATION \ --environment $ENVIRONMENT_NAME \ --env-vars "AZURE_OPENAI_ENDPOINT=<OPEN_AI_ENDPOINT>" "POOL_MANAGEMENT_ENDPOINT=<SESSION_POOL_MANAGMENT_ENDPOINT>" \ --source .
Ersetzen Sie
<OPEN_AI_ENDPOINT>
durch den Azure OpenAI-Kontoendpunkt und<SESSION_POOL_MANAGMENT_ENDPOINT>
durch den Verwaltungsendpunkt für den Sitzungspool.Aktivieren Sie die systemseitig zugewiesene verwaltete Identität für die App:
az containerapp identity assign \ --name $CONTAINER_APP_NAME \ --resource-group $RESOURCE_GROUP_NAME \ --system-assigned
Damit die App auf Azure OpenAI und den Sitzungspool zugreifen kann, müssen Sie der verwalteten Identität die entsprechenden Rollen zuweisen.
Rufen Sie die Prinzipal-ID der verwalteten Identität ab:
az containerapp show \ --name $CONTAINER_APP_NAME \ --resource-group $RESOURCE_GROUP_NAME \ --query identity.principalId \ --output tsv
Rufen Sie die Ressourcen-ID des Sitzungspools ab:
az containerapp sessionpool show \ --name $SESSION_POOL_NAME \ --resource-group $RESOURCE_GROUP_NAME \ --query id \ --output tsv
Weisen Sie der verwalteten Identität die Rollen
Azure ContainerApps Session Executor
undContributor
für den Sitzungspool zu:Ersetzen Sie vor dem Ausführen des folgenden Befehls
<PRINCIPAL_ID>
und<SESSION_POOL_RESOURCE_ID>
durch die Werte, die Sie in den vorherigen Schritten abgerufen haben.az role assignment create \ --role "Azure ContainerApps Session Executor" \ --assignee <PRINCIPAL_ID> \ --scope <SESSION_POOL_RESOURCE_ID> az role assignment create \ --role "Contributor" \ --assignee <PRINCIPAL_ID> \ --scope <SESSION_POOL_RESOURCE_ID>
Rufen Sie die Ressourcen-ID für das Azure OpenAI-Konto ab:
az cognitiveservices account show \ --name $AZURE_OPENAI_NAME \ --resource-group $RESOURCE_GROUP_NAME \ --query id \ --output tsv
Weisen Sie der verwalteten Identität die Rolle
Cognitive Services OpenAI User
für das Azure OpenAI-Konto zu:Ersetzen Sie vor dem Ausführen des folgenden Befehls
<PRINCIPAL_ID>
und<AZURE_OPENAI_RESOURCE_ID>
durch die Werte, die Sie in den vorherigen Schritten abgerufen haben.az role assignment create \ --role "Cognitive Services OpenAI User" \ --assignee <PRINCIPAL_ID> \ --scope <AZURE_OPENAI_RESOURCE_ID>
Rufen Sie den vollqualifizierten Domänennamen (FQDN) der App ab:
az containerapp show \ --name $CONTAINER_APP_NAME \ --resource-group $RESOURCE_GROUP_NAME \ --query properties.configuration.ingress.fqdn \ --output tsv
Navigieren Sie im Browser zu
https://<FQDN>/docs
, um die bereitgestellte App zu testen.
Bereinigen von Ressourcen
Wenn Sie die Ressourcen nicht mehr benötigen, können Sie sie löschen, um Kosten zu vermeiden:
az group delete --name $RESOURCE_GROUP_NAME --yes --no-wait