Udostępnij za pośrednictwem


Korzystanie z bezserwerowych punktów końcowych interfejsu API z innego projektu lub centrum rozwiązania Azure AI Foundry

Z tego artykułu dowiesz się, jak skonfigurować istniejący bezserwerowy punkt końcowy interfejsu API w innym projekcie lub centrum niż ten, który został użyty do utworzenia wdrożenia.

Ważne

Modele, które są w wersji zapoznawczej, są oznaczone jako wersja zapoznawcza na kartach modeli w wykazie modeli.

Niektóre modele w wykazie modeli można wdrożyć jako bezserwerowe interfejsy API. Tego rodzaju wdrożenie umożliwia korzystanie z modeli jako interfejsu API bez hostowania ich w ramach subskrypcji, przy jednoczesnym zachowaniu bezpieczeństwa i zgodności przedsiębiorstwa, których potrzebują organizacje. Ta opcja wdrożenia nie wymaga limitu przydziału z subskrypcji.

Konieczność użycia bezserwerowego punktu końcowego interfejsu API w innym projekcie lub centrum niż ten, który został użyty do utworzenia wdrożenia, może wystąpić w takich sytuacjach:

  • Chcesz scentralizować wdrożenia w danym projekcie lub centrum i korzystać z nich z różnych projektów lub centrów w organizacji.
  • Należy wdrożyć model w centrum w określonym regionie świadczenia usługi Azure, w którym dostępne jest bezserwerowe wdrożenie tego modelu. Należy jednak korzystać z niego z innego regionu, w którym wdrożenie bezserwerowe nie jest dostępne dla określonych modeli.

Wymagania wstępne

Tworzenie bezserwerowego połączenia punktu końcowego interfejsu API

Wykonaj następujące kroki, aby utworzyć połączenie:

  1. Połącz się z projektem lub centrum, w którym wdrożono punkt końcowy:

    Przejdź do usługi Azure AI Foundry i przejdź do projektu, w którym wdrożono punkt końcowy, z którym chcesz nawiązać połączenie.

  2. Pobierz adres URL i poświadczenia punktu końcowego, z którym chcesz nawiązać połączenie. W tym przykładzie uzyskasz szczegółowe informacje dotyczące nazwy punktu końcowego meta-llama3-8b-qwerty.

    1. Na lewym pasku bocznym projektu w portalu Azure AI Foundry przejdź do pozycji Moje>zasoby Modele i punkty końcowe, aby wyświetlić listę wdrożeń w projekcie.

    2. Wybierz wdrożenie, z którym chcesz nawiązać połączenie.

    3. Skopiuj wartości dla docelowego identyfikatora URI i klucza.

  3. Teraz połącz się z projektem lub centrum , w którym chcesz utworzyć połączenie:

    Przejdź do projektu, w którym należy utworzyć połączenie.

  4. Utwórz połączenie w projekcie:

    1. W projekcie w portalu Azure AI Foundry przejdź do dolnej części lewego paska bocznego i wybierz pozycję Centrum zarządzania.

    2. Na lewym pasku bocznym centrum zarządzania wybierz pozycję Połączone zasoby.

    3. Wybierz Nowe połączenie.

    4. Wybierz pozycję Model bezserwerowy.

    5. W polu Docelowy identyfikator URI wklej skopiowaną wcześniej wartość.

    6. W polu Klucz wklej skopiowaną wcześniej wartość.

    7. Nadaj połączeniu nazwę, w tym przypadku meta-llama3-8b-connection.

    8. Wybierz opcję Dodaj połączenie.

  5. W tym momencie połączenie jest dostępne do użycia.

  6. Aby sprawdzić, czy połączenie działa:

    1. Wróć do projektu w portalu Azure AI Foundry.

    2. Na lewym pasku bocznym projektu przejdź do pozycji Kompiluj i dostosuj>przepływ monitu.

    3. Wybierz pozycję Utwórz , aby utworzyć nowy przepływ.

    4. Wybierz pozycję Utwórz w polu Przepływ czatu.

    5. Nadaj przepływowi monitu nazwę i wybierz pozycję Utwórz.

    6. Wybierz węzeł czatu z grafu, aby przejść do sekcji czatu.

    7. W polu Połączenie otwórz listę rozwijaną, aby wybrać właśnie utworzone połączenie, w tym przypadku meta-llama3-8b-connection.

    8. Wybierz pozycję Rozpocznij sesję obliczeniową na górnym pasku nawigacyjnym, aby uruchomić automatyczne środowisko uruchomieniowe przepływu monitów.

    9. Wybierz opcję Czat. Teraz możesz wysyłać komunikaty i otrzymywać odpowiedzi.