Jeśli nie możesz znaleźć odpowiedzi na pytania w tym dokumencie i nadal potrzebujesz pomocy, zapoznaj się z przewodnikiem po opcjach pomocy technicznej usług sztucznej inteligencji platformy Azure. Azure OpenAI jest częścią usług Azure AI.
Dane i prywatność
Czy do szkolenia dowolnych modeli są wykorzystywane dane firmy?
Usługa Azure OpenAI nie używa danych klientów do ponownego trenowania modeli. Aby uzyskać więcej informacji, zobacz: Dane, prywatność i zabezpieczenia usługi Azure OpenAI
Ogólne
Czy usługa Azure OpenAI obsługuje niestandardowe nagłówki interfejsu API? Dołączamy dodatkowe nagłówki niestandardowe do naszych żądań interfejsu API i występują błędy błędów HTTP 431.
Nasze bieżące interfejsy API umożliwiają maksymalnie 10 nagłówków niestandardowych, które są przekazywane przez potok i zwracane. Zauważyliśmy, że niektórzy klienci przekraczają teraz tę liczbę nagłówków, co powoduje błędy HTTP 431. Nie ma rozwiązania dla tego błędu, innego niż zmniejszenie woluminu nagłówka. W przyszłych wersjach interfejsu API nie będziemy już przekazywać nagłówków niestandardowych. Zalecamy, aby klienci nie polegali na nagłówkach niestandardowych w przyszłych architekturach systemu.
Czy usługa Azure OpenAI współpracuje z najnowszą biblioteką języka Python wydaną przez interfejs OpenAI (wersja>=1.0)?
Usługa Azure OpenAI jest obsługiwana przez najnowszą wersję biblioteki języka Python OpenAI (wersja>=1.0). Należy jednak pamiętać, że migracja bazy kodu przy użyciu metody openai migrate
nie jest obsługiwana i nie będzie działać z kodem przeznaczonym dla usługi Azure OpenAI.
Nie mogę znaleźć GPT-4 Turbo Preview, gdzie jest?
GPT-4 Turbo Preview to gpt-4
model (wersja zapoznawcza 1106-preview). Aby wdrożyć ten model, w obszarze Wdrożenia wybierz model gpt-4. W obszarze Wersja modelu wybierz pozycję 1106-preview. Aby sprawdzić, w których regionach ten model jest dostępny, zapoznaj się ze stroną modeli.
Czy usługa Azure OpenAI obsługuje bibliotekę GPT-4?
Usługa Azure OpenAI obsługuje najnowsze modele GPT-4. Obsługuje zarówno GPT-4, jak i GPT-4-32K.
Jak można porównać możliwości usługi Azure OpenAI z usługą OpenAI?
Usługa Azure OpenAI Service zapewnia klientom zaawansowaną sztuczną inteligencję języka dzięki modelom OpenAI GPT-3, Codex i DALL-E z obietnicą zabezpieczeń i przedsiębiorstw platformy Azure. Usługa Azure OpenAI koduje interfejsy API z funkcją OpenAI, zapewniając zgodność i bezproblemowe przejście z jednego do drugiego.
Dzięki usłudze Azure OpenAI klienci uzyskują możliwości zabezpieczeń platformy Microsoft Azure podczas uruchamiania tych samych modeli co openAI.
Czy usługa Azure OpenAI obsługuje sieci wirtualne i prywatne punkty końcowe?
Tak, w ramach usług azure AI usługa Azure OpenAI obsługuje sieci wirtualne i prywatne punkty końcowe. Aby dowiedzieć się więcej, zapoznaj się ze wskazówkami dotyczącymi sieci wirtualnych usług Azure AI.
Czy modele GPT-4 obsługują obecnie dane wejściowe obrazu?
Nie, GPT-4 jest zaprojektowany przez openAI jako multimodalny, ale obecnie obsługiwane są tylko dane wejściowe i wyjściowe tekstu.
Jak mogę ubiegać się o nowe przypadki użycia?
Wcześniej proces dodawania nowych przypadków użycia wymagał od klientów ponownego zastosowania do usługi. Teraz publikujemy nowy proces, który umożliwia szybkie dodawanie nowych przypadków użycia do korzystania z usługi. Ten proces jest zgodny z ustalonym procesem ograniczonego dostępu w ramach usług Azure AI. Istniejący klienci mogą potwierdzić wszystkie nowe przypadki użycia w tym miejscu. Należy pamiętać, że jest to wymagane w dowolnym momencie, w którym chcesz korzystać z usługi w przypadku nowego przypadku użycia, dla którego pierwotnie nie zastosowano.
Próbuję użyć osadzania i otrzymuję błąd "InvalidRequestError: Zbyt wiele danych wejściowych. Maksymalna liczba danych wejściowych to 16". Jak mogę to naprawić?
Ten błąd występuje zwykle podczas próby wysłania partii tekstu w celu osadzenia w pojedynczym żądaniu interfejsu API jako tablicy. Obecnie usługa Azure OpenAI obsługuje tylko tablice osadzania z wieloma danymi wejściowymi dla text-embedding-ada-002
modelu w wersji 2. Ta wersja modelu obsługuje tablicę składającą się z maksymalnie 16 danych wejściowych na żądanie interfejsu API. Tablica może mieć maksymalnie 8191 tokenów długości podczas korzystania z modelu osadzania tekstu-ada-002 (wersja 2).
Gdzie mogę przeczytać o lepszych sposobach korzystania z usługi Azure OpenAI w celu uzyskania odpowiedzi, których chcę z usługi?
Zapoznaj się z naszym wprowadzeniem do monitowania inżynieryjnego. Chociaż te modele są zaawansowane, ich zachowanie jest również bardzo wrażliwe na monity otrzymywane od użytkownika. To sprawia, że ich szybkie tworzenie jest ważną umiejętnością, którą warto nabyć. Po ukończeniu wprowadzenia zapoznaj się z artykułem dotyczącym komunikatów systemowych.
Moje konto gościa otrzymało dostęp do zasobu usługi Azure OpenAI, ale nie mogę uzyskać dostępu do tego zasobu w usłudze Azure AI Studio. Jak mogę włączyć dostęp?
Jest to oczekiwane zachowanie podczas korzystania z domyślnego środowiska logowania dla programu Azure AI Studio.
Aby uzyskać dostęp do programu Azure AI Studio z konta gościa, któremu udzielono dostępu do zasobu usługi Azure OpenAI:
- Otwórz prywatną sesję przeglądarki, a następnie przejdź do https://ai.azure.comstrony .
- Zamiast tego należy natychmiast wprowadzać poświadczenia konta gościa
Sign-in options
- Teraz wybierz pozycję Zaloguj się do organizacji
- Wprowadź nazwę domeny organizacji, która udzieliła kontu gościa dostępu do zasobu azure OpenAI.
- Teraz zaloguj się przy użyciu poświadczeń konta gościa.
Teraz powinno być możliwe uzyskanie dostępu do zasobu za pośrednictwem programu Azure AI Studio.
Alternatywnie, jeśli logujesz się do witryny Azure Portal z okienka Przegląd zasobu usługi Azure OpenAI, możesz wybrać pozycję Przejdź do usługi Azure AI Studio , aby automatycznie zalogować się przy użyciu odpowiedniego kontekstu organizacyjnego.
Kiedy pytam GPT-4, który model jest uruchomiony, informuje mnie, że działa GPT-3. Dlaczego tak się dzieje?
Modele usługi Azure OpenAI (w tym GPT-4) nie mogą poprawnie zidentyfikować, jaki model działa, jest oczekiwane zachowanie.
Dlaczego tak się dzieje?
Ostatecznie model wykonuje następne przewidywanie tokenu w odpowiedzi na pytanie. Model nie ma natywnej możliwości wykonywania zapytań o wersję modelu, która jest obecnie uruchamiana, aby odpowiedzieć na twoje pytanie. Aby odpowiedzieć na to pytanie, zawsze możesz przejść do pozycji Wdrożenia> zarządzania>programu Azure AI Studio>i sprawdzić kolumnę nazwy modelu, aby potwierdzić, który model jest obecnie skojarzony z daną nazwą wdrożenia.
Pytania "Jakiego modelu używasz?" lub "Co to jest najnowszy model z platformy OpenAI?" dają podobne wyniki jakości, aby zadać modelowi, jaki będzie dzisiaj pogoda. Może zwrócić prawidłowy wynik, ale wyłącznie według prawdopodobieństwa. Na własną rękę model nie ma rzeczywistych informacji innych niż to, co było częścią danych treningowych/szkoleniowych. W przypadku GPT-4 od sierpnia 2023 r. bazowe dane szkoleniowe są dostępne dopiero we wrześniu 2021 r. GPT-4 nie został wydany do marca 2023 r., więc zakaz otwierania OpenAI wydania nowej wersji ze zaktualizowanymi danymi treningowymi lub nowej wersji, która jest dostrojona, aby odpowiedzieć na te konkretne pytania, oczekiwane jest zachowanie GPT-4, aby odpowiedzieć, że GPT-3 jest najnowszą wersją modelu z OpenAI.
Jeśli chcesz pomóc modelowi opartemu na GPT, aby dokładnie odpowiedzieć na pytanie "jaki model jest uruchomiony?", musisz podać te informacje do modelu za pomocą technik, takich jak monitowanie inżynierii komunikatu systemowego modelu, pobieranie rozszerzonej generacji (RAG), która jest techniką używaną przez usługę Azure OpenAI na danych , w których aktualne informacje są wstrzykiwane do komunikatu systemowego w czasie zapytania, lub za pomocą dostrajania , gdzie można dostosować konkretne wersje modelu, aby odpowiedzieć na to pytanie w określony sposób na podstawie wersji modelu.
Aby dowiedzieć się więcej na temat trenowania modeli GPT i pracy, zalecamy oglądanie rozmowy Andrej Karpatii z kompilacji 2023 na temat stanu GPT.
Zapytałem model, gdy jego odcięcie wiedzy jest i dał mi inną odpowiedź niż to, co znajduje się na stronie modelu Azure OpenAI. Dlaczego tak się dzieje?
Jest to oczekiwane zachowanie. Modele nie są w stanie odpowiedzieć na pytania dotyczące siebie. Jeśli chcesz wiedzieć, kiedy jest odcięcie wiedzy dla danych treningowych modelu, zapoznaj się ze stroną modeli.
Zapytałem model pytanie o coś, co wydarzyło się niedawno przed odcięciem wiedzy i dostał odpowiedź źle. Dlaczego tak się dzieje?
Jest to oczekiwane zachowanie. Najpierw nie ma gwarancji, że każde ostatnie zdarzenie było częścią danych treningowych modelu. A nawet wtedy, gdy informacje były częścią danych treningowych, bez używania dodatkowych technik, takich jak Pobieranie rozszerzonej generacji (RAG), aby pomóc uziemić odpowiedzi modelu, zawsze istnieje prawdopodobieństwo wystąpienia nieziemnych odpowiedzi. Zarówno usługa Azure OpenAI korzysta z funkcji danych, jak i czatU Bing używa modeli usługi Azure OpenAI połączonych z generacją rozszerzonej pobierania, aby pomóc w dalszych odpowiedziach modelu podstawowego.
Częstotliwość wyświetlania danego elementu informacji w danych treningowych może również mieć wpływ na prawdopodobieństwo, że model odpowie w określony sposób.
Pytając najnowszy model GPT-4 Turbo Preview o coś, co zmieniło się ostatnio jak "Kto jest premierem Nowej Zelandii?", może doprowadzić do sfabrykowanej odpowiedzi Jacinda Ardern
. Jednak pytanie modelu "Kiedy ustąpił Jacinda Ardern
jako premier?" Zwykle daje dokładną odpowiedź, która demonstruje wiedzę na temat danych treningowych, która będzie miała co najmniej styczeń 2023 r.
Dlatego chociaż istnieje możliwość sondowania modelu z pytaniami, aby odgadnąć odcięcie wiedzy na temat danych treningowych, strona modelu jest najlepszym miejscem do sprawdzenia odcięcia wiedzy modelu.
Gdzie można uzyskać dostęp do informacji o cenach dla starszych modeli, które nie są już dostępne dla nowych wdrożeń?
Starsze informacje o cenach są dostępne za pośrednictwem pliku PDF, który można pobrać. W przypadku wszystkich innych modeli zapoznaj się z oficjalną stroną cennika.
Jak mogę naprawić błąd InternalServerError — 500 — nie można utworzyć ukończenia, ponieważ model wygenerował nieprawidłowe dane wyjściowe Unicode?
Możesz zminimalizować występowanie tych błędów, zmniejszając temperaturę monitów do mniej niż 1 i upewniając się, że używasz klienta z logiką ponawiania prób. Ponowne przytłaczanie żądania często skutkuje pomyślną odpowiedzią.
Zauważyliśmy opłaty skojarzone z wywołaniami interfejsu API, które nie powiodły się z kodem stanu 400. Dlaczego nieudane wywołania interfejsu API generują opłatę?
Jeśli usługa wykonuje przetwarzanie, zostanie naliczona opłata, nawet jeśli kod stanu nie powiedzie się (nie 200). Typowe przykłady tego błędu to 400 z powodu filtru zawartości lub limitu danych wejściowych lub błędu 408 z powodu przekroczenia limitu czasu. Opłaty będą również naliczane, gdy status 200
element zostanie odebrany z wartością finish_reason
content_filter
. W takim przypadku monit nie miał żadnych problemów, ale wykryto ukończenie wygenerowane przez model w celu naruszenia reguł filtrowania zawartości, co powoduje filtrowanie uzupełniania.
Jeśli usługa nie wykonuje przetwarzania, nie zostaną naliczone opłaty. Na przykład błąd 401 spowodowany uwierzytelnianiem lub błędem 429 spowodowany przekroczeniem limitu szybkości.
Uzyskiwanie dostępu do usługi Azure OpenAI
Jak mogę uzyskać dostęp do usługi Azure OpenAI?
Formularz rejestracji ograniczonego dostępu nie jest wymagany do uzyskiwania dostępu do większości modeli usługi Azure OpenAI. Dowiedz się więcej na stronie Azure OpenAI Limited Access ( Ograniczony dostęp do usługi Azure OpenAI).
Dowiedz się więcej i gdzie zadawać pytania
Gdzie mogę przeczytać o najnowszych aktualizacjach usługi Azure OpenAI?
Aby uzyskać informacje o comiesięcznych aktualizacjach, zobacz naszą nową stronę.
Gdzie mogę uzyskać szkolenia, aby rozpocząć naukę i rozwijać swoje umiejętności w zakresie usługi Azure OpenAI?
Zapoznaj się z naszym wprowadzeniem do kursu szkoleniowego usługi Azure OpenAI.
Gdzie można publikować pytania i wyświetlać odpowiedzi na inne typowe pytania?
- Zalecamy publikowanie pytań w witrynie Microsoft Q&A.
- Alternatywnie możesz publikować pytania w witrynie Stack Overflow.
Gdzie mogę przejść do pomocy technicznej klienta usługi Azure OpenAI?
Azure OpenAI jest częścią usług Azure AI. Wszystkie opcje pomocy technicznej dla usług Azure AI można uzyskać w przewodniku pomocy technicznej i opcjach pomocy technicznej.
Modele i dostrajanie
Jakie modele są dostępne?
Zapoznaj się z przewodnikiem dostępności modelu usługi Azure OpenAI.
Gdzie mogę dowiedzieć się, w jakim regionie jest dostępny model?
Aby uzyskać informacje o dostępności w regionach, zapoznaj się z przewodnikiem dostępności modelu Azure OpenAI.
Jakie są umowy SLA (umowy dotyczące poziomu usług) w usłudze Azure OpenAI?
Oferujemy umowę SLA dotyczącą dostępności dla wszystkich zasobów i umowę SLA o opóźnieniu dla wdrożeń zarządzanych przez aprowizację. Aby uzyskać więcej informacji na temat umowy SLA dla usługi Azure OpenAI, zobacz stronę Umowy dotyczące poziomu usług (SLA) dla usług online.
Jak mogę włączyć dostrajanie? Tworzenie modelu niestandardowego jest wyszarzone w usłudze Azure AI Studio.
Aby pomyślnie uzyskać dostęp do dostrajania, musisz mieć przypisany współautor openAI usług Cognitive Services. Nawet osoba z uprawnieniami administratora usługi wysokiego poziomu będzie nadal potrzebować tego konta jawnie ustawionego w celu uzyskania dostępu do dostrajania. Aby uzyskać więcej informacji, zapoznaj się ze wskazówkami dotyczącymi kontroli dostępu opartej na rolach.
Jaka jest różnica między modelem podstawowym a dostosowanym modelem?
Model podstawowy to model, który nie został dostosowany ani dostosowany do konkretnego przypadku użycia. Dostosowane modele to dostosowane wersje modeli podstawowych, w których wagi modelu są trenowane na unikatowym zestawie monitów. Dostosowane modele pozwalają uzyskać lepsze wyniki na szerszą liczbę zadań bez konieczności udostępniania szczegółowych przykładów uczenia w kontekście w ramach monitu o ukończenie. Aby dowiedzieć się więcej, zapoznaj się z naszym przewodnikiem dostosowywania.
Jaka jest maksymalna liczba dostrojonych modeli, które mogę utworzyć?
100
Dlaczego moje dostosowane wdrożenie modelu zostało usunięte?
Jeśli dostosowany (dostosowany) model jest wdrażany przez ponad 15 dni, w trakcie którego nie są wykonywane żadne ukończenie ani wywołania ukończenia czatu, wdrożenie zostanie automatycznie usunięte (i nie zostaną naliczone żadne dalsze opłaty za hosting dla tego wdrożenia). Podstawowy dostosowany model pozostaje dostępny i można go ponownie wdrożyć w dowolnym momencie. Aby dowiedzieć się więcej, zapoznaj się z artykułem z instrukcjami.
Jak mogę wdrożyć model za pomocą interfejsu API REST?
Obecnie istnieją dwa różne interfejsy API REST, które umożliwiają wdrażanie modelu. W przypadku najnowszych funkcji wdrażania modelu, takich jak możliwość określania wersji modelu podczas wdrażania modeli, takich jak osadzanie tekstu ada-002 w wersji 2, użyj wywołania interfejsu API REST Tworzenie lub aktualizowanie .
Czy mogę użyć limitu przydziału, aby zwiększyć maksymalny limit tokenu modelu?
Nie, alokacja tokenów przydziału na minutę (TPM) nie jest powiązana z maksymalnym limitem tokenu wejściowego modelu. Limity tokenów wejściowych modelu są definiowane w tabeli modeli i nie mają wpływu na zmiany wprowadzone w module TPM.
GPT-4 Turbo z wizją
Czy mogę dostosować możliwości obrazu w GPT-4?
Nie, w tej chwili nie obsługujemy precyzyjnego dostrajania możliwości obrazu GPT-4.
Czy można użyć biblioteki GPT-4 do generowania obrazów?
Nie, można użyć dall-e-3
do generowania obrazów i gpt-4-vision-preview
zrozumienia obrazów.
Jakiego typu pliki można przekazać?
Obecnie obsługujemy pliki PNG (.png), JPEG (.jpeg i .jpg), WEBP (.webp) i nieanimowane pliki GIF (.gif).
Czy istnieje limit rozmiaru obrazu, który mogę przekazać?
Tak, ograniczamy przekazywanie obrazów do 20 MB na obraz.
Czy mogę usunąć przekazany obraz?
Nie, usuniemy obraz automatycznie po przetworzeniu go przez model.
Jak działają limity szybkości GPT-4 Turbo z wizją?
Przetwarzamy obrazy na poziomie tokenu, więc każdy obraz, który przetwarzamy, jest liczone do limitu tokenów na minutę (TPM). Zobacz sekcję Tokeny obrazów w sekcji Przegląd, aby uzyskać szczegółowe informacje na temat formuły używanej do określania liczby tokenów na obraz.
Czy GPT-4 Turbo z funkcją Vision rozumie metadane obrazu?
Nie, model nie odbiera metadanych obrazu.
Co się stanie, jeśli mój obraz jest niejasny?
Jeśli obraz jest niejednoznaczny lub niejasny, model zrobi wszystko, co w jego mocy, aby go zinterpretować. Jednak wyniki mogą być mniej dokładne. Dobrą zasadą jest to, że jeśli przeciętny człowiek nie może zobaczyć informacji na obrazie przy rozdzielczościach używanych w trybie niskiej/wysokiej res, model nie może też.
Jakie są znane ograniczenia GPT-4 Turbo z wizją?
Zapoznaj się z sekcją dotyczącą ograniczeń przewodnika GPT-4 Turbo z pojęciami dotyczącymi przetwarzania obrazów.
Ciągle otrzymuję obcięte odpowiedzi, gdy używam modeli GPT-4 Turbo vision. Dlaczego tak się dzieje?
Domyślnie GPT-4 vision-preview
i GPT-4 turbo-2024-04-09
mają max_tokens
wartość 16. W zależności od żądania ta wartość jest często zbyt niska i może prowadzić do obcięć odpowiedzi. Aby rozwiązać ten problem, przekaż większą max_tokens
wartość w ramach żądań interfejsu API uzupełniania czatów. Wartość domyślna GPT-4o to 4096 max_tokens.
Asystenci
Czy przechowujesz jakiekolwiek dane używane w interfejsie API Asystentów?
Tak. W przeciwieństwie do interfejsu API uzupełniania czatów asystenty usługi Azure OpenAI to stanowy interfejs API, co oznacza, że przechowuje dane. Istnieją dwa typy danych przechowywanych w interfejsie API Asystentów:
- Jednostki stanowe: wątki, komunikaty i uruchomienia utworzone podczas korzystania z Asystentów.
- Pliki: przekazywane podczas konfigurowania asystentów lub w ramach komunikatu.
Gdzie są przechowywane te dane?
Dane są przechowywane na bezpiecznym koncie magazynu zarządzanego przez firmę Microsoft, które jest logicznie oddzielone.
Jak długo są przechowywane te dane?
Wszystkie używane dane są utrwalane w tym systemie, chyba że jawnie usuniesz te dane. Użyj funkcji delete z identyfikatorem wątku wątku, który chcesz usunąć. Wyczyszczenie pola Uruchom na placu zabaw Asystentów nie powoduje usunięcia wątków, jednak usunięcie ich przy użyciu funkcji delete nie spowoduje wyświetlenia ich na stronie wątku.
Czy mogę korzystać z własnego magazynu danych z Asystentami?
L.p. Obecnie Asystentzy obsługują tylko pliki lokalne przekazywane do magazynu zarządzanego przez Asystentów. Nie można używać prywatnego konta magazynu z Asystentami.
Czy Asystenci obsługują szyfrowanie kluczy zarządzanych przez klienta (CMK)?
Obecnie obsługujemy cmK dla wątków i plików w Asystentach. Zobacz stronę Co nowego w dostępnych regionach dla tej funkcji.
Czy moje dane są używane przez firmę Microsoft do trenowania modeli?
L.p. Dane nie są używane przez firmę Microsoft do trenowania modeli. Aby uzyskać więcej informacji, zobacz dokumentację odpowiedzialnej sztucznej inteligencji .
Gdzie są przechowywane dane geograficznie?
Punkty końcowe asystentów usługi Azure OpenAI są regionalne, a dane są przechowywane w tym samym regionie co punkt końcowy. Aby uzyskać więcej informacji, zobacz dokumentację dotyczącą rezydencji danych platformy Azure.
Jak są naliczane opłaty za asystentów?
- Koszt wnioskowania (dane wejściowe i wyjściowe) modelu podstawowego używanego dla każdego Asystenta (na przykład gpt-4-0125). Jeśli utworzono wiele asystentów, opłata zostanie naliczona za model podstawowy dołączony do każdego Asystenta.
- Jeśli włączono narzędzie Interpreter kodu. Jeśli na przykład asystent wywołuje interpreter kodu jednocześnie w dwóch różnych wątkach, spowoduje to utworzenie dwóch sesji interpretera kodu, z których każda zostanie obciążona. Każda sesja jest domyślnie aktywna przez jedną godzinę, co oznacza, że płacisz tę opłatę tylko raz, jeśli użytkownik będzie udzielał instrukcji interpreterowi kodu w tym samym wątku przez maksymalnie jedną godzinę.
- Wyszukiwanie plików jest rozliczane na podstawie używanego magazynu wektorowego.
Aby uzyskać więcej informacji, zobacz stronę z cennikiem.
Czy istnieją dodatkowe ceny lub limity przydziału dotyczące korzystania z Asystentów?
L.p. Wszystkie limity przydziału mają zastosowanie do używania modeli z Asystentami.
Czy interfejs API Asystentów obsługuje modele inne niż Azure OpenAI?
Interfejs API asystentów obsługuje tylko modele usługi Azure OpenAI.
Czy interfejs API asystentów jest ogólnie dostępny?
Interfejs API Asystentów jest obecnie w publicznej wersji zapoznawczej. Bądź na bieżąco z naszymi najnowszymi aktualizacjami produktów, regularnie odwiedzając naszą stronę Co nowego .
Jakie są przykłady lub inne zasoby, których mogę użyć, aby dowiedzieć się więcej o asystentach?
Aby uzyskać informacje na temat rozpoczynania pracy i korzystania z asystentów, zobacz artykuły koncepcyjne, szybki start i przewodniki z instrukcjami. Możesz również zapoznać się z przykładami kodu asystentów openAI platformy Azure w witrynie GitHub.
Aplikacja sieci web
Jak dostosować opublikowaną aplikację internetową?
Opublikowaną aplikację internetową można dostosować w witrynie Azure Portal. Kod źródłowy opublikowanej aplikacji internetowej jest dostępny w usłudze GitHub, gdzie można znaleźć informacje dotyczące zmiany frontonu aplikacji, a także instrukcje dotyczące kompilowania i wdrażania aplikacji.
Czy moja aplikacja internetowa zostanie zastąpiona po ponownym wdrożeniu aplikacji z poziomu programu Azure AI Studio?
Kod aplikacji nie zostanie zastąpiony podczas aktualizowania aplikacji. Aplikacja zostanie zaktualizowana tak, aby korzystała z zasobu azure OpenAI, indeksu usługi Azure AI Search (jeśli używasz usługi Azure OpenAI na danych) i ustawień modelu wybranych w narzędziu Azure AI Studio bez konieczności zmiany wyglądu lub funkcjonalności.
Korzystanie z danych
Co to jest usługa Azure OpenAI na danych?
Usługa Azure OpenAI na danych to funkcja usług Azure OpenAI Services, która ułatwia organizacjom generowanie dostosowanych szczegółowych informacji, zawartości i wyszukiwań przy użyciu wyznaczonych źródeł danych. Współpracuje ona z możliwościami modeli OpenAI w usłudze Azure OpenAI, aby zapewnić dokładniejsze i odpowiednie odpowiedzi na zapytania użytkowników w języku naturalnym. Usługa Azure OpenAI na danych może być zintegrowana z istniejącymi aplikacjami i przepływami pracy klienta, oferuje wgląd w kluczowe wskaźniki wydajności i może bezproblemowo korzystać z użytkowników.
Jak uzyskać dostęp do usługi Azure OpenAI na danych?
Wszyscy klienci usługi Azure OpenAI mogą używać usługi Azure OpenAI na danych za pośrednictwem programu Azure AI Studio i interfejsu API REST.
Jakie źródła danych obsługuje usługa Azure OpenAI?
Usługa Azure OpenAI na danych obsługuje pozyskiwanie z usługi Azure AI Search, Azure Blob Storage i przekazywanie plików lokalnych. Więcej informacji na temat usługi Azure OpenAI na temat danych można dowiedzieć się z artykułu koncepcyjnego i przewodnika Szybki start.
Ile kosztuje korzystanie z usługi Azure OpenAI na danych?
W przypadku korzystania z usługi Azure OpenAI na danych koszty są naliczane podczas korzystania z usługi Azure AI Search, azure Blob Storage, usługi Azure Web App Service, wyszukiwania semantycznego i modeli OpenAI. Korzystanie z funkcji "twoje dane" w usłudze Azure AI Studio nie kosztuje dodatkowego kosztu.
Jak dostosować lub zautomatyzować proces tworzenia indeksu?
Indeks można przygotować samodzielnie przy użyciu skryptu udostępnionego w usłudze GitHub. Użycie tego skryptu spowoduje utworzenie indeksu usługi Azure AI Search ze wszystkimi informacjami potrzebnymi do lepszego używania danych, a dokumenty podzielone na fragmenty z możliwością zarządzania. Zobacz plik README z kodem przygotowywania danych, aby uzyskać szczegółowe informacje na temat sposobu jego uruchamiania.
Jak zaktualizować indeks?
Możesz zaplanować automatyczne odświeżanie indeksu lub przekazać dodatkowe dane do kontenera obiektów blob platformy Azure i użyć go jako źródła danych podczas tworzenia nowego indeksu. Nowy indeks będzie zawierać wszystkie dane w kontenerze.
Jakie typy plików obsługuje usługa Azure OpenAI?
Aby uzyskać więcej informacji na temat obsługiwanych typów plików, zobacz Korzystanie z danych .
Czy sztuczna inteligencja jest obsługiwana przez usługę Azure OpenAI na danych?
Tak, usługa Azure OpenAI na danych jest częścią usługi Azure OpenAI Service i współpracuje z modelami dostępnymi w usłudze Azure OpenAI. Nadal mają zastosowanie funkcje filtrowania zawartości i monitorowania nadużyć w usłudze Azure OpenAI. Aby uzyskać więcej informacji, zobacz omówienie praktyk odpowiedzialnego używania sztucznej inteligencji dla modeli usługi Azure OpenAI i Nota dotycząca przezroczystości dla usługi Azure OpenAI, aby uzyskać dodatkowe wskazówki dotyczące odpowiedzialnego korzystania z usługi Azure OpenAI na danych.
Czy istnieje limit tokenu dla komunikatu systemowego?
Tak, limit tokenu w komunikacie systemowym wynosi 400. Jeśli komunikat systemowy ma więcej niż 400 tokenów, pozostałe tokeny wykraczające poza pierwsze 400 zostaną zignorowane. To ograniczenie dotyczy tylko usługi Azure OpenAI w funkcji danych.
Czy usługa Azure OpenAI na danych obsługuje wywoływanie funkcji?
Usługa Azure OpenAI na danych obecnie nie obsługuje wywoływania funkcji.
Czy język zapytań i język źródła danych muszą być takie same?
Zapytania należy wysyłać w tym samym języku danych. Dane mogą znajdować się w dowolnym z języków obsługiwanych przez usługę Azure AI Search.
Jeśli usługa Semantic Search jest włączona dla mojego zasobu usługi Azure AI Search, zostanie ona automatycznie zastosowana do usługi Azure OpenAI na danych w narzędziu Azure AI Studio?
Po wybraniu pozycji "Azure AI Search" jako źródła danych możesz zastosować wyszukiwanie semantyczne. Jeśli jako źródło danych wybierzesz pozycję "Kontener obiektów blob platformy Azure" lub "Przekaż pliki", możesz utworzyć indeks w zwykły sposób. Następnie należy ponownie pozyskać dane przy użyciu opcji "Azure AI Search", aby wybrać ten sam indeks i zastosować wyszukiwanie semantyczne. Następnie wszystko będzie gotowe do czatu na danych za pomocą zastosowanego semantycznego wyszukiwania.
Jak dodać wektorowe osadzanie podczas indeksowania danych?
Po wybraniu pozycji "Azure Blob Container", "Azure AI Search" lub "Upload files" (Przekazywanie plików) jako źródła danych możesz również wybrać wdrożenie modelu osadzania Ada do użycia podczas pozyskiwania danych. Spowoduje to utworzenie indeksu usługi Azure AI Search z osadzeniem wektorowym.
Dlaczego tworzenie indeksu kończy się niepowodzeniem po dodaniu modelu osadzania?
Tworzenie indeksu może zakończyć się niepowodzeniem podczas dodawania osadzania do indeksu, jeśli limit szybkości wdrożenia modelu osadzania Ada jest zbyt niski lub jeśli masz bardzo duży zestaw dokumentów. Tego skryptu podanego w usłudze GitHub można użyć do ręcznego utworzenia indeksu z osadzeniem.
Zobowiązanie dotyczące praw autorskich klienta
Jak mogę uzyskać pokrycie w ramach zobowiązania do praw autorskich klienta?
Zobowiązanie do praw autorskich klienta to przepis, który ma zostać uwzględniony w postanowieniach dotyczących produktów firmy Microsoft z 1 grudnia 2023 r., które opisują obowiązek firmy Microsoft bronić klientów przed niektórymi roszczeniami własności intelektualnej innych firm odnoszącymi się do zawartości wyjściowej. Jeśli przedmiotem oświadczenia jest zawartość wyjściowa wygenerowana z usługi Azure OpenAI (lub dowolny inny produkt objęty, który umożliwia klientom konfigurowanie systemów bezpieczeństwa), klient musi zaimplementować wszystkie środki zaradcze wymagane przez dokumentację usługi Azure OpenAI w ofercie, która dostarczyła zawartość wyjściową. Wymagane środki zaradcze są udokumentowane tutaj i aktualizowane w sposób ciągły. W przypadku nowych usług, funkcji, modeli lub przypadków użycia nowe wymagania CCC zostaną opublikowane i zaczną obowiązywać po uruchomieniu takiej usługi, funkcji, modelu lub przypadku użycia. W przeciwnym razie klienci będą mieli sześć miesięcy od momentu publikacji, aby wdrożyć nowe środki zaradcze w celu utrzymania zasięgu w ramach CCC. Jeśli klient składa wniosek, klient będzie musiał wykazać zgodność z odpowiednimi wymaganiami. Te środki zaradcze są wymagane w przypadku produktów objętych, które umożliwiają klientom konfigurowanie systemów bezpieczeństwa, w tym usługi Azure OpenAI Service; nie mają one wpływu na pokrycie dla klientów korzystających z innych produktów objętych.