Odpowiedzi generatywne — często zadawanie pytania
Te często zadawane pytania (FAQ) opisują efekt sztucznej inteligencji funkcji generatywnych odpowiedzi w Copilot Studio.
Czym są generatywne odpowiedzi?
Generatywne odpowiedzi sprawiają, że agent jest wartościowy od razu po wyjęciu z pudełka i zwiększa liczbę tematów, w których agent jest konwersacyjny, bez konieczności ręcznego tworzenia drzewa dialogowego.
Jakie są możliwości funkcji generatywnych odpowiedzi?
Gdy użytkownik zada agent pytanie, które nie zawiera skonfigurowanego temat, agent może opcjonalnie wyszukać odpowiednią zawartość z wybranego przez Ciebie źródła. To wyszukiwanie obejmuje publiczne witryny internetowe SharePoint lub własne niestandardowe źródła danych, w tym obrazy osadzone w plikach PDF. Agent wykorzystuje generatywną sztuczną inteligencję do podsumowania tych informacji w odpowiedź zwróconej użytkownikowi agent.
Notatka
Od września 2024 r. agenci mogą również analizować elementy nietekstowe w przekazanych plikach, takie jak obrazy, dane tabelaryczne i diagramy.
Jakie jest przeznaczenie funkcji generatywnych odpowiedzi?
Generatywne odpowiedzi mogą być używane jako podstawowe źródła informacji w agent lub jako rezerwowe, gdy utworzone tematy nie mogą odpowiedzieć na zapytanie użytkownika.
W jaki sposób ocenione generatywne odpowiedzi i jakie wskaźniki służą do pomiaru ich wydajności?
Możliwości są stale oceniane na podstawie zbioru ręcznie aktualizowanych zestawów danych dotyczących pytań i odpowiedzi, które obejmują wiele branż. Dalsza ocena jest wykonywana na niestandardowych zestawach danych w celu zapobiegania obraźliwym i złośliwym monitom i odpowiedziom, zarówno poprzez zautomatyzowane, jak i dedykowane sesje ręczne zaprojektowane w celu rozszerzenia zestawu testów.
Jakie są ograniczenia dotyczące odpowiedzi generujących i jak użytkownicy mogą zminimalizować wpływ ograniczeń podczas używania odpowiedzi generujących?
Musisz włączyć opcję generatywnych odpowiedzi dla każdego agent.
Zobacz Obsługa języka, aby zapoznać się z listą języków obsługiwanych przez tę funkcję i ich odpowiednim etapem. Możesz być w stanie używać innych języków, ale wygenerowane odpowiedzi mogą być niespójne, a agent może nie odpowiadać poprawnie lub zgodnie z oczekiwaniami.
Ta funkcja może podlegać limitom użycia lub możliwościom wykrywania wydajności.
Odpowiedzi wygenerowane przez funkcję generatywne odpowiedzi nie zawsze są zawsze doskonałe i mogą zawierać błędy.
System został opracowany z myślą o pobraniu wiedzy z wybranej witryny internetowej oraz podaniem odpowiednich wyników w łatwo zrozumiałe odpowiedzi. Należy jednak pamiętać o cechach AI, które mogą powodować nieoczekiwane odpowiedzi:
Korpus, na którym wytrenowano model, nie obejmuje danych utworzonych po 2021 roku.
Istnieją ograniczenia uniemożliwiające modelowi używanie korpusu szkoleniowego jako źródła odpowiedzi, jednak możliwe jest, że odpowiedzi będą zawierać treści z witryn internetowych innych niż wybrana.System nie przeprowadza kontroli dokładności, więc jeśli wybrana źródło danych zawiera niedokładne informacje, może zostać wyświetlona użytkownikom Twojego agent. Zaimplementowaliśmy środki zaradcze, aby odfiltrować nieistotne i obraźliwe odpowiedzi, a funkcja została zaprojektowana tak, aby nie reagować po wykryciu obraźliwego języka. Te filtry i środki ograniczenia ryzyka nie są niezawodne.
Notatka
Zawsze powinieneś testować i recenzować swoich agentów przed ich opublikowaniem i rozważyć zebranie opinii od użytkowników agent. Administrator może wyłączyć możliwość publikowania agentów z generatywnymi odpowiedziami dla dzierżawy w Power Platform centrum administracyjnym.
Jakie dane zbiera ta funkcja? Jak dane są używane?
Możliwość zbiera monity użytkowników, odpowiedzi zwrócone przez system oraz wszelkie przekazane opinie.
Użyjemy tych danych, by ocenić i poprawić jakość możliwości. Więcej informacji na temat zbieranych danych jest dostępnych w warunkach wersji zapoznawczej.
Jakie czynniki operacyjne i ustawienia pozwalają na skuteczne i odpowiedzialne korzystanie z generatywnych odpowiedzi?
Odpowiedzi generatywne działają najlepiej, gdy użytkownik wyznacza zaufane i prawidłowe źródło, w którym należy szukać odpowiedzi. Tym źródłem może być witryna internetowa Twojej firmy, na przykład www.microsoft.com. Wszystkie strony sieci Web należące do tej domeny będą przeszukiwane w celu znalezienia dopasowania do pytania użytkownika.
Przekazane przez Ciebie informacje zwrotne na temat Twojego zadowolenia z wygenerowanych odpowiedzi wykorzystujemy do poprawy jakości systemu. Opinie można przekazać, wybierając ikonę kciuka w górę lub kciuka w dół dla wygenerowanych odpowiedzi. Więcej opinii można także dołączyć do bezpłatnego tekstu.
Jakie zabezpieczenia są stosowane w ramach Copilot Studio odpowiedzialnej sztucznej inteligencji?
Generatywne odpowiedzi obejmują różne zabezpieczenia, aby zapewnić administratorom, twórcom i użytkownikom bezpieczne i zgodne środowisko. Administratorzy mają pełną kontrolę nad funkcjami w swojej dzierżawie i zawsze mogą wyłączyć możliwość publikowania agentów z generatywnymi odpowiedziami w organizacji. Twórcy mogą dodawać niestandardowe instrukcje, aby wpływać na typy odpowiedzi zwracanych przez ich agentów. Aby uzyskać więcej informacji na temat najlepszych praktyk dotyczących pisania instrukcji niestandardowych, zobacz Używanie monitu modyfikacji w celu dostarczenia niestandardowych instrukcji do agent.
Twórcy mogą również ograniczyć źródła wiedzy, których agenci mogą używać do odpowiadania na pytania. Aby umożliwić agentom odpowiadanie na pytania wykraczające poza zakres skonfigurowanych źródeł wiedzy, twórcy mogą włączyć funkcję wiedzy ogólnej AI. Aby ograniczyć agentów do odpowiadania na pytania tylko w zakresie skonfigurowanych źródeł wiedzy, twórcy powinni wyłączyć tę funkcję.
Copilot Studio Stosuje również zasady moderowania treści dla wszystkich żądań generatywnej sztucznej inteligencji, aby chronić administratorów, twórców i użytkowników przed obraźliwymi lub szkodliwymi treściami. Te zasady moderowania treści obejmują również złośliwe próby jailbreakingu, natychmiastowego wstrzyknięcia, szybkiej eksfiltracji i naruszenia praw autorskich. Cała zawartość jest sprawdzana dwukrotnie: po raz pierwszy podczas wprowadzania danych przez użytkownika i ponownie, gdy agent ma odpowiedzieć. Jeśli system znajdzie szkodliwą, obraźliwą lub złośliwą zawartość, uniemożliwi to agent odpowiedź.
Wreszcie, najlepszym rozwiązaniem jest komunikowanie użytkownikom, że agent korzysta ze sztucznej inteligencji, dlatego następujący domyślny komunikat informuje użytkowników: "Żebyś był świadomy, czasami używam sztucznej inteligencji, aby odpowiedzieć na twoje pytania".