Korzystanie z bezserwerowych punktów końcowych interfejsu API z innego projektu lub centrum rozwiązania Azure AI Foundry
Z tego artykułu dowiesz się, jak skonfigurować istniejący bezserwerowy punkt końcowy interfejsu API w innym projekcie lub centrum niż ten, który został użyty do utworzenia wdrożenia.
Ważne
Modele, które są w wersji zapoznawczej, są oznaczone jako wersja zapoznawcza na kartach modeli w wykazie modeli.
Niektóre modele w wykazie modeli można wdrożyć jako bezserwerowe interfejsy API. Tego rodzaju wdrożenie umożliwia korzystanie z modeli jako interfejsu API bez hostowania ich w ramach subskrypcji, przy jednoczesnym zachowaniu bezpieczeństwa i zgodności przedsiębiorstwa, których potrzebują organizacje. Ta opcja wdrożenia nie wymaga limitu przydziału z subskrypcji.
Konieczność użycia bezserwerowego punktu końcowego interfejsu API w innym projekcie lub centrum niż ten, który został użyty do utworzenia wdrożenia, może wystąpić w takich sytuacjach:
- Chcesz scentralizować wdrożenia w danym projekcie lub centrum i korzystać z nich z różnych projektów lub centrów w organizacji.
- Należy wdrożyć model w centrum w określonym regionie świadczenia usługi Azure, w którym dostępne jest bezserwerowe wdrożenie tego modelu. Należy jednak korzystać z niego z innego regionu, w którym wdrożenie bezserwerowe nie jest dostępne dla określonych modeli.
Wymagania wstępne
Subskrypcja platformy Azure z prawidłową formą płatności. Subskrypcje platformy Azure w wersji bezpłatnej lub próbnej nie będą działać. Jeśli nie masz subskrypcji platformy Azure, utwórz płatne konto platformy Azure, aby rozpocząć.
Projekt usługi Azure AI Foundry.
Model wdrożony w punkcie końcowym bezserwerowego interfejsu API. W tym artykule założono, że wcześniej wdrożono model Meta-Llama-3-8B-Instruct . Aby dowiedzieć się, jak wdrożyć ten model jako bezserwerowy interfejs API, zobacz Wdrażanie modeli jako bezserwerowych interfejsów API.
Aby pracować z usługą Azure AI Foundry, musisz zainstalować następujące oprogramowanie:
- Portal usługi Azure AI Foundry
- Interfejs wiersza polecenia platformy Azure
- Zestaw SDK dla języka Python
Aby nawigować po usłudze Azure AI Foundry, możesz użyć dowolnej zgodnej przeglądarki internetowej.
Tworzenie bezserwerowego połączenia punktu końcowego interfejsu API
Wykonaj następujące kroki, aby utworzyć połączenie:
Połącz się z projektem lub centrum, w którym wdrożono punkt końcowy:
- Portal usługi Azure AI Foundry
- Interfejs wiersza polecenia platformy Azure
- Zestaw SDK dla języka Python
Przejdź do usługi Azure AI Foundry i przejdź do projektu, w którym wdrożono punkt końcowy, z którym chcesz nawiązać połączenie.
Pobierz adres URL i poświadczenia punktu końcowego, z którym chcesz nawiązać połączenie. W tym przykładzie uzyskasz szczegółowe informacje dotyczące nazwy punktu końcowego meta-llama3-8b-qwerty.
- Portal usługi Azure AI Foundry
- Interfejs wiersza polecenia platformy Azure
- Zestaw SDK dla języka Python
Na lewym pasku bocznym projektu w portalu Azure AI Foundry przejdź do pozycji Moje>zasoby Modele i punkty końcowe, aby wyświetlić listę wdrożeń w projekcie.
Wybierz wdrożenie, z którym chcesz nawiązać połączenie.
Skopiuj wartości dla docelowego identyfikatora URI i klucza.
Teraz połącz się z projektem lub centrum , w którym chcesz utworzyć połączenie:
- Portal usługi Azure AI Foundry
- Interfejs wiersza polecenia platformy Azure
- Zestaw SDK dla języka Python
Przejdź do projektu, w którym należy utworzyć połączenie.
Utwórz połączenie w projekcie:
- Portal usługi Azure AI Foundry
- Interfejs wiersza polecenia platformy Azure
- Zestaw SDK dla języka Python
W projekcie w portalu Azure AI Foundry przejdź do dolnej części lewego paska bocznego i wybierz pozycję Centrum zarządzania.
Na lewym pasku bocznym centrum zarządzania wybierz pozycję Połączone zasoby.
Wybierz Nowe połączenie.
Wybierz pozycję Model bezserwerowy.
W polu Docelowy identyfikator URI wklej skopiowaną wcześniej wartość.
W polu Klucz wklej skopiowaną wcześniej wartość.
Nadaj połączeniu nazwę, w tym przypadku meta-llama3-8b-connection.
Wybierz opcję Dodaj połączenie.
W tym momencie połączenie jest dostępne do użycia.
Aby sprawdzić, czy połączenie działa:
Wróć do projektu w portalu Azure AI Foundry.
Na lewym pasku bocznym projektu przejdź do pozycji Kompiluj i dostosuj>przepływ monitu.
Wybierz pozycję Utwórz , aby utworzyć nowy przepływ.
Wybierz pozycję Utwórz w polu Przepływ czatu.
Nadaj przepływowi monitu nazwę i wybierz pozycję Utwórz.
Wybierz węzeł czatu z grafu, aby przejść do sekcji czatu.
W polu Połączenie otwórz listę rozwijaną, aby wybrać właśnie utworzone połączenie, w tym przypadku meta-llama3-8b-connection.
Wybierz pozycję Rozpocznij sesję obliczeniową na górnym pasku nawigacyjnym, aby uruchomić automatyczne środowisko uruchomieniowe przepływu monitów.
Wybierz opcję Czat. Teraz możesz wysyłać komunikaty i otrzymywać odpowiedzi.