Dela via


Använda serverlösa API-slutpunkter från ett annat Azure AI Foundry-projekt eller en annan hubb

I den här artikeln får du lära dig hur du konfigurerar en befintlig serverlös API-slutpunkt i ett annat projekt eller en annan hubb än den som användes för att skapa distributionen.

Viktigt!

Modeller som är i förhandsversion markeras som förhandsversioner på sina modellkort i modellkatalogen.

Vissa modeller i modellkatalogen kan distribueras som serverlösa API:er. Den här typen av distribution ger ett sätt att använda modeller som ett API utan att vara värd för dem i din prenumeration, samtidigt som den företagssäkerhet och efterlevnad som organisationer behöver bevaras. Det här distributionsalternativet kräver inte kvot från din prenumeration.

Behovet av att använda en serverlös API-slutpunkt i ett annat projekt eller en annan hubb än den som användes för att skapa distributionen kan uppstå i situationer som dessa:

  • Du vill centralisera dina distributioner i ett visst projekt eller hubb och använda dem från olika projekt eller hubbar i din organisation.
  • Du måste distribuera en modell i en hubb i en viss Azure-region där serverlös distribution för den modellen är tillgänglig. Du måste dock använda den från en annan region, där serverlös distribution inte är tillgänglig för de specifika modellerna.

Förutsättningar

Skapa en serverlös API-slutpunktsanslutning

Följ de här stegen för att skapa en anslutning:

  1. Anslut till projektet eller hubben där slutpunkten distribueras:

    Gå till Azure AI Foundry och gå till projektet där slutpunkten du vill ansluta till distribueras.

  2. Hämta slutpunktens URL och autentiseringsuppgifter för den slutpunkt som du vill ansluta till. I det här exemplet får du information om ett slutpunktsnamn meta-llama3-8b-qwerty.

    1. I det vänstra sidofältet i projektet i Azure AI Foundry-portalen går du till Mina tillgångar>Modeller + slutpunkter för att se listan över distributioner i projektet.

    2. Välj den distribution som du vill ansluta till.

    3. Kopiera värdena för mål-URI och nyckel.

  3. Anslut nu till projektet eller hubben där du vill skapa anslutningen:

    Gå till projektet där anslutningen måste skapas.

  4. Skapa anslutningen i projektet:

    1. Från projektet i Azure AI Foundry-portalen går du till den nedre delen av det vänstra sidofältet och väljer Hanteringscenter.

    2. Välj Anslutna resurser i det vänstra sidofältet i hanteringscentret.

    3. Välj Ny anslutning.

    4. Välj Serverlös modell.

    5. För mål-URI:n klistrar du in det värde som du kopierade tidigare.

    6. För nyckeln klistrar du in det värde som du kopierade tidigare.

    7. Ge anslutningen ett namn, i det här fallet meta-llama3-8b-connection.

    8. Välj Lägg till anslutning.

  5. Nu är anslutningen tillgänglig för förbrukning.

  6. Så här verifierar du att anslutningen fungerar:

    1. Gå tillbaka till projektet i Azure AI Foundry-portalen.

    2. Från det vänstra sidofältet i projektet går du till Skapa och anpassa>promptflödet.

    3. Välj Skapa för att skapa ett nytt flöde.

    4. Välj Skapa i rutan Chattflöde .

    5. Ge promptflödet ett namn och välj Skapa.

    6. Välj chattnoden i diagrammet för att gå till chattavsnittet.

    7. För Anslutning öppnar du listrutan för att välja den anslutning som du nyss skapade, i det här fallet meta-llama3-8b-connection.

    8. Välj Starta beräkningssessionen i det övre navigeringsfältet för att starta en automatisk körning av ett promptflöde.

    9. Välj alternativet Chatt. Nu kan du skicka meddelanden och få svar.