Używanie orkiestracji generatywnej AI — często zadawane pytania
Często zadawane pytania opisują wpływ interfejsu AI na tryb generowania ustawień dla niestandardowych agentów w Copilot Studio.
Czym jest orkiestracja generatywna?
Generatywna orkiestracja umożliwia niestandardowemu agentowi odpowiadać na zapytania użytkownika odpowiednimi tematami i/lub akcjami. Generowanie orkiestracji umożliwia tworzenie bardziej naturalnych konwersacji dzięki wypełnieniu danych wejściowych przy użyciu szczegółów z historii rozmowy. Na przykład, jeśli zapytasz o najbliższy sklep w Kirkland, a następnie zapytasz o pogodę, orkiestracja wywnioskuje, że chcesz zapytać o pogodę w Kirkland. System może również łączyć ze sobą wiele działań lub tematów. Można na przykład odpowiedzieć na pytanie „Muszę uzyskać godziny otwarcia sklepu i znaleźć najbliższy”. Jeśli agent nie jest pewny co do szczegółów, może zadać dodatkowe pytania, by rozwiać wątpliwości.
Czym może zrobić orkiestracja generatywna?
Przy użyciu technologii generatywnej system tworzy najpierw plan odpowiedzi na zapytanie użytkownika, używając nazwy, opisu, danych wejściowych i nazw dostępnych tematów i akcji. Odwołuje się także do ostatnich 10 zwrotów historii rozmowy. Następnie próbuje wykonać plan, wypełnianie wymaganych informacji wejściowych z rozmowy, a następnie wykonywanie kolejnych czynności z użytkownikiem w przypadku wszystkich brakujących lub jednoznacznych szczegółów. Przed udzieleniem odpowiedzi na użytkownika system sprawdza, czy znajduje odpowiedź na pytanie użytkownika. Jeśli tak się nie stanie, będzie on ponownie przejść przez proces. Na koniec system tworzy raport odpowiedź na podstawie wyników planu na podstawie tematów i/lub działań. Używa także wszelkich instrukcji niestandardowych dotyczących agenta podczas generowania końcowego odpowiedzi.
Jakie jest zastosowanie generatywnej orkiestracji?
Możesz użyć tego trybu w swoim agent, aby utworzyć agent, który może odpowiadać na zapytania użytkowników na podstawie historii konwersacji, nazw i opisów tematów oraz nazw, opisów, danych wejściowych i wyjściowych akcji.
Jak jest oceniana generowana orkiestracja? Jakie metryki są używane do oceny wydajności?
Generowanie orkiestracji jest szacowane pod koniec i na każdym kroku procesu. Jakość jest mierzona pod względem sposobu tworzenia i wykonywania przez system planu, który pomyślnie odpowiada zapytaniu użytkownika. Nasz zespół ręcznie oznacza wyniki jakości podczas dostrajania. Oceniamy jakość na podstawie różnych zapytań, monitów i działań użytkowników. Oceniamy również, jak dobrze system radzi sobie z ignorowaniem złośliwej zawartości pochodzącej od użytkowników i autorów oraz jak dobrze system unika tworzenia szkodliwej zawartości.
Jakie są ograniczenia generatywnej orkiestracji? W jaki sposób użytkownicy mogą zminimalizować ograniczenia generatywnej orkiestracji podczas korzystania z systemu?
Aby uzyskać najlepsze wyniki, należy upewnić się, że tematy i działania zawierają opisy o wysokiej jakości. Zapewniamy wskazówki dotyczące pisania wysokiej jakości opisów w dokumentacji Copilot Studio.
Jakie czynniki operacyjne i ustawienia pozwalają na skuteczne i odpowiedzialne korzystanie z generatywnej orkiestracji?
Rozwiązanie generatywne jest obecnie Tylko w języku angielskim. Po włączeniu trybu generatywnego w swoim agent możesz przetestować system, aby zobaczyć, jak dobrze działa za pomocą panelu testowego. W celu wygenerowania końcowej agenta można również dodać niestandardowe instrukcje odpowiedź.
Co to są akcje i jak agent z włączonym trybem generowania z nich korzysta?
Do kwerend niestandardowych można dodawać akcje agenta w celu odpowiadania na pytania użytkowników. Z akcji opracowanych przez Microsoft lub inne firmy można również tworzyć własne akcje. Należy skonfigurować akcje konfigurowane dla agenta niestandardowego. Użytkownik może również edytować nazwy, opisy, dane wejściowe i dane wyjściowe używane w systemie.
Jakie dane Copilot Studio mogą być wykorzystywane w działaniach? Jakie uprawnienia posiadają akcje Copilot Studio?
Gdy agent wywołuje akcję, odbiera wartości wejściowe podane przez akcję. Wartości wejściowe mogą zawierać część historii konwersacji z użytkownikiem.
Jakiego rodzaju problemy mogą wystąpić podczas korzystania z Copilot Studio akcji włączonych?
Akcje mogą nie zawsze działać zgodnie z oczekiwaniami. Mogą wystąpić błędy podczas przygotowywania danych wejściowych dla akcji lub generowania odpowiedzi na podstawie danych wyjściowych akcji. Twój agent może również wywołać nieprawidłową akcję dla zapytania użytkownika. Aby ograniczyć ryzyko wystąpienia takich błędów podczas korzystania z akcji, upewnij się, że masz skonfigurowane wysokiej jakości, odpowiednie i jednoznaczne opisy akcji w niestandardowym agent.
Jakie zabezpieczenia Copilot Studio są stosowane w przypadku odpowiedzialnej sztucznej inteligencji?
Istnieje wiele funkcji ograniczania ryzyka w celu ochrony agentów. Możesz skonfigurować swój agent przy użyciu zestawu wiedzy, akcji i tematów. Agenci nigdy nie podejmują akcji, która nie jest częścią ich konfiguracji. Administratorzy mogą nie zezwalać na działania agentów w organizacji. Jeśli obawiasz się, że akcja zostanie wyzwolona bez potwierdzenia, możesz skonfigurować akcję tak, aby była wywoływana tylko wtedy, gdy użytkownik zgodzi się ją wywołać.
Ponadto mamy klasyfikatory, które analizują dane wejściowe do systemu w celu wykrycia szkodliwej zawartości i ataków jailbreak. Według naszych testów klasyfikatory te mają wysoki wskaźnik skuteczności w blokowaniu szkodliwych treści i ataków jailbreak, a także mają wysoki sukces w nieblokowaniu treści, które nie są szkodliwe lub atak jailbreak. Jednak klasyfikatory nie mogą być idealne, więc istnieje ryzyko, że agent wytworzy szkodliwą zawartość lub odpowie na atak jailbreak. Zagrożenia te obejmują międzydomenowe ataki polegające na wstrzykiwaniu monitów, w których instrukcje mogą być dodawane do danych wyjściowych akcji lub źródła wiedzy, które agent następnie próbuje wykonać.
Wreszcie, najlepszą praktyką jest komunikowanie użytkownikom, że agent wykorzystuje sztuczną inteligencję, dlatego poniższy domyślny komunikat informuje użytkowników: "Żebyś był świadomy, czasami używam sztucznej inteligencji, aby odpowiedzieć na twoje pytania".