Använda serverlösa API-slutpunkter från en annan arbetsyta
I den här artikeln får du lära dig hur du konfigurerar en befintlig serverlös API-slutpunkt på en annan arbetsyta än den där den distribuerades.
Vissa modeller i modellkatalogen kan distribueras som serverlösa API:er. Den här typen av distribution ger ett sätt att använda modeller som ett API utan att vara värd för dem i din prenumeration, samtidigt som den företagssäkerhet och efterlevnad som organisationer behöver bevaras. Det här distributionsalternativet kräver inte kvot från din prenumeration.
Behovet av att använda en serverlös API-slutpunkt på en annan arbetsyta än den som användes för att skapa distributionen kan uppstå i situationer som dessa:
- Du vill centralisera dina distributioner på en viss arbetsyta och använda dem från olika arbetsytor i din organisation.
- Du måste distribuera en modell på en arbetsyta i en viss Azure-region där serverlös distribution för den modellen är tillgänglig. Du måste dock använda den från en annan region, där serverlös distribution inte är tillgänglig för de specifika modellerna.
Förutsättningar
En Azure-prenumeration med en giltig betalningsmetod. Kostnadsfria azure-prenumerationer eller utvärderingsprenumerationer fungerar inte. Om du inte har en Azure-prenumeration skapar du ett betalt Azure-konto för att börja.
En Azure Machine Learning-arbetsyta där du vill använda den befintliga distributionen.
En modell som distribueras till en serverlös API-slutpunkt. Den här artikeln förutsätter att du tidigare har distribuerat modellen Meta-Llama-3-8B-Instruct . Information om hur du distribuerar den här modellen som ett serverlöst API finns i Distribuera modeller som serverlösa API:er.
Du måste installera följande programvara för att arbeta med Azure Machine Learning:
Du kan använda valfri kompatibel webbläsare för att navigera Azure Machine Learning-studio.
Skapa en serverlös API-slutpunktsanslutning
Följ de här stegen för att skapa en anslutning:
Anslut till arbetsytan där slutpunkten distribueras:
Gå till Azure Machine Learning-studio och gå till arbetsytan där slutpunkten som du vill ansluta till distribueras.
Hämta slutpunktens URL och autentiseringsuppgifter för den slutpunkt som du vill ansluta till. I det här exemplet får du information om ett slutpunktsnamn meta-llama3-8b-qwerty.
Välj Slutpunkter i det vänstra sidofältet.
Välj fliken Serverlösa slutpunkter för att visa serverlösa API-slutpunkter.
Välj den slutpunkt som du vill ansluta till.
På fliken Information för slutpunkten kopierar du värdena för Mål-URI och Nyckel.
Anslut nu till arbetsytan där du vill skapa anslutningen och använda slutpunkten.
Skapa anslutningen på arbetsytan:
Gå till arbetsytan där anslutningen måste skapas.
Gå till avsnittet Hantera i det vänstra navigeringsfältet och välj Anslutningar.
Välj Skapa.
Välj Serverlös modell.
För mål-URI:n klistrar du in det värde som du kopierade tidigare.
För nyckeln klistrar du in det värde som du kopierade tidigare.
Ge anslutningen ett namn, i det här fallet meta-llama3-8b-connection.
Välj Lägg till anslutning.
Nu är anslutningen tillgänglig för förbrukning.
Så här verifierar du att anslutningen fungerar:
Gå till Redigeringspromptflöde>i det vänstra navigeringsfältet i Azure Machine Learning-studio.
Välj Skapa för att skapa ett nytt flöde.
Välj Skapa i rutan Chattflöde .
Ge promptflödet ett namn och välj Skapa.
Välj chattnoden i diagrammet för att gå till chattavsnittet.
För Anslutning öppnar du listrutan för att välja den anslutning som du nyss skapade, i det här fallet meta-llama3-8b-connection.
Välj Starta beräkningssessionen i det övre navigeringsfältet för att starta en automatisk körning av ett promptflöde.
Välj alternativet Chatt. Nu kan du skicka meddelanden och få svar.