Serverloze API-eindpunten uit een andere werkruimte gebruiken
In dit artikel leert u hoe u een bestaand serverloos API-eindpunt configureert in een andere werkruimte dan het eindpunt waarop het is geïmplementeerd.
Bepaalde modellen in de modelcatalogus kunnen worden geïmplementeerd als serverloze API's. Dit soort implementatie biedt een manier om modellen als API te gebruiken zonder deze te hosten in uw abonnement, terwijl de bedrijfsbeveiliging en -naleving die organisaties nodig hebben, behouden blijven. Voor deze implementatieoptie is geen quotum van uw abonnement vereist.
De noodzaak om een serverloos API-eindpunt in een andere werkruimte te gebruiken dan het eindpunt dat is gebruikt om de implementatie te maken, kan zich voordoen in situaties zoals deze:
- U wilt uw implementaties in een bepaalde werkruimte centraliseren en deze gebruiken vanuit verschillende werkruimten in uw organisatie.
- U moet een model implementeren in een werkruimte in een bepaalde Azure-regio waar serverloze implementatie voor dat model beschikbaar is. U moet deze echter gebruiken vanuit een andere regio, waarbij serverloze implementatie niet beschikbaar is voor de specifieke modellen.
Vereisten
Een Azure-abonnement met een geldige betalingswijze. Gratis of proefversie van Azure-abonnementen werkt niet. Als u geen Azure-abonnement hebt, maakt u eerst een betaald Azure-account .
Een Azure Machine Learning-werkruimte waarin u de bestaande implementatie wilt gebruiken.
Een model dat is geïmplementeerd op een serverloos API-eindpunt. In dit artikel wordt ervan uitgegaan dat u eerder het Meta-Llama-3-8B-Instruct-model hebt geïmplementeerd . Zie Modellen implementeren als serverloze API's voor meer informatie over het implementeren van dit model als een serverloze API.
U moet de volgende software installeren om te kunnen werken met Azure Machine Learning:
U kunt elke compatibele webbrowser gebruiken om door Azure Machine Learning-studio te navigeren.
Een serverloze API-eindpuntverbinding maken
Volg deze stappen om een verbinding te maken:
Maak verbinding met de werkruimte waar het eindpunt is geïmplementeerd:
Ga naar Azure Machine Learning-studio en navigeer naar de werkruimte waar het eindpunt waarmee u verbinding wilt maken, is geïmplementeerd.
Haal de URL en referenties van het eindpunt op waarmee u verbinding wilt maken. In dit voorbeeld krijgt u de details voor een eindpuntnaam meta-llama3-8b-qwerty.
Selecteer Eindpunten in de linkerzijbalk.
Selecteer het tabblad Serverloze eindpunten om de serverloze API-eindpunten weer te geven.
Selecteer het eindpunt waarmee u verbinding wilt maken.
Kopieer op het tabblad Details van het eindpunt de waarden voor de doel-URI en sleutel.
Maak nu verbinding met de werkruimte waar u de verbinding wilt maken en verbruik het eindpunt.
Maak de verbinding in de werkruimte:
Ga naar de werkruimte waarin de verbinding moet worden gemaakt.
Ga naar de sectie Beheren in de linkernavigatiebalk en selecteer Verbindingen.
Selecteer Maken.
Selecteer serverloos model.
Plak voor de doel-URI de waarde die u eerder hebt gekopieerd.
Plak voor de sleutel de waarde die u eerder hebt gekopieerd.
Geef de verbinding een naam, in dit geval meta-llama3-8b-connection.
Selecteer Verbinding toevoegen.
Op dit moment is de verbinding beschikbaar voor verbruik.
Controleren of de verbinding werkt:
Ga in de linkernavigatiebalk van Azure Machine Learning-studio naar de stroom Ontwerpprompt.>
Selecteer Maken om een nieuwe stroom te maken.
Selecteer Maken in het vak Chatstroom .
Geef de promptstroom een naam en selecteer Maken.
Selecteer het chatknooppunt in de grafiek om naar de chatsectie te gaan.
Voor Verbinding opent u de vervolgkeuzelijst om de verbinding te selecteren die u zojuist hebt gemaakt, in dit geval meta-llama3-8b-connection.
Selecteer Rekensessie starten in de bovenste navigatiebalk om een promptstroom voor automatische runtime te starten.
Selecteer de chatoptie. U kunt nu berichten verzenden en antwoorden krijgen.