Instellen en overwegingen voor ai_generate_text()
Belangrijk
Deze functie is beschikbaar als openbare preview.
Waarschuwing
De AI-functie ai_generate_text()
is afgeschaft. Databricks raadt het gebruik van ai_query aan met externe modellen.
In dit artikel wordt beschreven wat u moet overwegen en wat u moet instellen voordat u de ai_generate_text()
functie gaat gebruiken, met name hoe u verificatiereferenties ophaalt en veilig opslaat. Het omvat ook functionaliteitsbeperkingen en overwegingen voor kostenprestaties.
Wat is ai_generate_text()
?
De ai_generate_text()
functie is een ingebouwde Azure Databricks SQL-functie waarmee u rechtstreeks vanuit SQL toegang hebt tot grote taalmodellen (LLM's). Deze functie ondersteunt momenteel de toegang tot OpenAI- en Azure OpenAI-modellen en stelt klanten in staat om ze te gebruiken als bouwstenen in gegevenspijplijnen en machine learning-workloads. Raadpleeg de inhoud van de ai_generate_text
-functie in de-taalhandleiding voor syntaxis- en ontwerppatronen.
Mogelijke gebruiksvoorbeelden voor ai_generate_text()
vertaling, samenvatting, aanbevolen acties, onderwerp- of themaidentificatie en nog veel meer.
Hier volgen enkele voordelen van het gebruik van LLM's in Azure Databricks:
- Geïntegreerde toegangs- en beheerlaag voor open source en eigen LLM's.
- Serverloze, automatisch schaalbare, gegevens-geïntegreerde LLM-infrastructuur.
- Wijs-en-klikgemak om LLM's aan te passen aan de vereisten en gebruikssituaties van uw bedrijf.
- Voor geavanceerde gebruikers, hulpprogramma's voor snelle ontwikkeling en aanpassing van opensource-LLM's.
Vereisten
- Inschrijving in de openbare preview van AI-functies. Als u zich wilt inschrijven voor de openbare preview, vult u het inschrijvingsformulier voor openbare preview-versie van AI Functions in en verzendt u deze.
- Azure Databricks SQL Pro of Serverless.
- Begrijp dat de activering en het gebruik van deze functionaliteit gegevens omsturen om uw SQL-omgeving te verlaten en door te geven aan externe LLM-modelproviders: OpenAI en Azure OpenAI.
- U hebt toegang tot Azure OpenAI of OpenAI.
- Een GPT 3.5 Turbo-model geïmplementeerd.
Verificatiedetails ophalen
Als u de ai_generate_text()
functie wilt gebruiken, moet u toegang hebben tot Azure OpenAI of OpenAI.
Haal verificatiedetails voor Azure OpenAI op met de volgende stappen. Uw verificatiegegevens vullen de resourceName
en deploymentName
parameters van ai_generate_text()
.
- Navigeer naar Cognitive Services in azure Portal en selecteer Azure OpenAI.
- Selecteer de resource die u wilt gebruiken.
- Selecteer Sleutels en eindpunt onder Resourcebeheer.
- Kopieer uw sleutel en de naam van uw resource.
- Selecteer Modelimplementaties onder ResourceBeheer.
- Kopieer de naam van de modelimplementatie.
Voor OpenAI kunt u naar OpenAI navigeren en API-sleutels selecteren om uw sleutel te maken.
Notitie
U kunt geen sleutels kopiëren voor een bestaande sleutelconfiguratie.
U hebt de volgende mogelijkheden:
- Haal de sleutel op van de persoon, ook wel de principal genoemd, die de configuratie heeft gemaakt.
- Maak een nieuwe sleutel en kopieer de sleutel die is opgegeven na succesvolle aanmaak.
Toegangstokens opslaan
Belangrijk
Bewaar uw token niet in platte tekst in uw notebook, code of git-opslagplaats.
U kunt Azure Databricks-geheimen gebruiken om uw API-tokens op te slaan. Gebruik de Databricks CLI of Secrets API 2.0 om uw geheimen te maken. In de stappen in het volgende voorbeeld wordt de Secrets CLI gebruikt:
Als u nog geen geheime ruimte hebt om uw OpenAI-sleutels in op te slaan, maakt u er een:
databricks secrets create-scope openai
U moet leesmachtigingen of hoger verlenen aan gebruikers of groepen die verbinding mogen maken met OpenAI. Databricks raadt aan om een groep
openai-users
te maken en toegestane gebruikers toe te voegen aan die groep.databricks secrets put-acl openai openai-users READ
Maak een geheim voor uw API-toegangstoken. Databricks raadt de indeling
<resource-name>-key
aan:databricks secrets put-secret openai demo-key --string-value yourkey123
Beperkingen
-
ai_generate_text()
wordt niet ondersteund in interactieve clusters of werklading clusters. - De enige modellen die worden ondersteund in de preview zijn
openai/gpt-3.5-turbo
enazure_openai/gpt-35-turbo
. - De tokenlimiet voor
openai/gpt-3.5-turbo
enazure_openai/gpt-35-turbo
is 4096 tokens.
Overwegingen voor kosten en prestaties
- Voor OpenAI- en Azure OpenAI-services zijn abonnementen en kosten afzonderlijk van Azure Databricks vereist.
- De tokenkosten van OpenAI en Azure OpenAI Services zijn van toepassing op zowel invoer als uitvoer.
- Zie de pagina met prijzen van OpenAI en de pagina met Prijzen van Azure OpenAI voor meer informatie.
- Binnen een bepaalde query worden aanroepen naar de LLM-API's opeenvolgend uitgevoerd voor de kolommen waarop de functies worden aangeroepen.
- In vergelijking met de meeste SQL-functies worden query's die worden gebruikt
ai_generate_text()
, meestal trager uitgevoerd.
- In vergelijking met de meeste SQL-functies worden query's die worden gebruikt
- De reactietijd van een query die AI-functies aanroept, is afhankelijk van de taak die is opgegeven in de prompt, evenals het aantal tokens dat is opgegeven en aangevraagd.
- De Azure OpenAI-service is alleen beschikbaar in een klein aantal Azure-regio's op het moment van deze preview.
Aanvullende bronnen
Zie de taalhandleiding voor syntaxis- en ontwerppatronen voor de functie ai_generate_text.
Zie Klantbeoordelingen analyseren met ai_generate_text()
en OpenAI- voor een voorbeeld van het gebruik van ai_generate_text()
in een bedrijfsscenario.