Konwersacyjne środowisko tworzenia agenta — często zadawane pytania
Te często zadawane pytania (FAQ) opisują efekt AI konwersacyjnego doświadczenia tworzenia agenta w Copilot Studio.
Na czym polega proces tworzenia agenta konwersacyjnego?
Funkcja tworzenia agenta konwersacyjnego służy do pomocy w tworzeniu niestandardowego agenta lub agenta funkcji Copilot. Poprzez konwersację przewiduje nazwę, opis, instrukcje, wszelkie dodane źródła wiedzy sieci Web i monity początkowe (dla agentów funkcji Copilot)
Jakie są możliwości środowiska tworzenia agenta konwersacyjnego?
Możesz szybko rozpocząć pracę z konfiguracją agenta niestandardowego lub agenta funkcji Copilot za pośrednictwem interfejsu języka naturalnego. System zaktualizuje konfigurację na podstawie danych wejściowych twórcy podczas rozmowy.
Jakie jest przeznaczenie środowiska tworzenia agenta konwersacyjnego?
Możesz użyć tego środowiska, aby rozpocząć początkową konfigurację agenta.
Jak oceniano środowisko tworzenia agenta konwersacyjnego i jakie metryki są używane do mierzenia wydajności?
Oceniliśmy system pod kątem dokładności tego, jak dobrze przewidywana konfiguracja reprezentowała zapytania w konwersacji, aby zapewnić jakość. Przetestowaliśmy również, aby upewnić się, że system nie generuje szkodliwej lub złośliwej zawartości.
Jakie są ograniczenia środowiska tworzenia agenta konwersacyjnego i jak użytkownicy mogą zminimalizować wpływ ograniczeń podczas korzystania z niego?
Konwersacyjne doświadczenie tworzenia agenta obsługuje tylko niektóre języki. Możesz używać innych języków, ale wygenerowane odpowiedzi mogą być niespójne, a agent może nie odpowiadać poprawnie lub zgodnie z oczekiwaniami.
To środowisko nie może pomóc w testowaniu agenta i może służyć tylko do konfigurowania:
- Nazwa
- Opis
- Instrukcje tworzenia agenta
- Internetowe źródła wiedzy
- Uruchamianie promptów dla agentów funkcji Copilot
Zobacz Odpowiedzialne wykorzystanie AI FAQ dla generatywnych odpowiedzi, aby uzyskać dodatkowe uwagi i ograniczenia podczas korzystania z odpowiedzi generatywnych w agentach utworzonych za pomocą tej funkcji.
Jakie czynniki operacyjne i ustawienia pozwalają na efektywne i odpowiedzialne korzystanie ze środowiska tworzenia agenta konwersacyjnego?
Możesz używać języka naturalnego do rozmowy z systemem przez czat lub możesz bezpośrednio edytować konfigurację ręcznie w panelu bocznym. Jeśli edytujesz ręcznie, system może zostać zaktualizowany o dodatkowe informacje w miarę kontynuowania rozmowy.
Jakie zabezpieczenia są stosowane w Copilot Studio w celu odpowiedzialnego wykorzystania AI?
Odpowiedzi generatywne obejmują różne zabezpieczenia, aby zapewnić administratorom, twórcom i użytkownikom bezpieczne i zgodne środowisko. Administratorzy mają pełną kontrolę nad funkcjami w swojej dzierżawie i zawsze mogą wyłączyć możliwość publikowania agentów z odpowiedziami generatywnymi w swojej organizacji. Twórcy mogą dodawać niestandardowe instrukcje, aby wpływać na typy odpowiedzi zwracanych przez ich agentów. Aby uzyskać więcej informacji na temat najlepszych praktyk dotyczących pisania niestandardowych instrukcji, zobacz Użyj modyfikacji promptów, aby dostarczyć agentowi niestandardowe instrukcje.
Twórcy mogą również ograniczyć źródła wiedzy, których agenci mogą używać do odpowiadania na pytania. Aby umożliwić agentom odpowiadanie na pytania spoza zakresu ich skonfigurowanych źródeł wiedzy, twórcy mogą włączyć funkcję Ogólna wiedza nt. AI. Aby ograniczyć agentów do odpowiadania na pytania tylko w zakresie skonfigurowanych źródeł wiedzy, twórcy powinni wyłączyć tę funkcję.
Copilot Studio stosuje również zasady moderowania treści we wszystkich żądaniach generatywnej sztucznej inteligencji, aby chronić administratorów, twórców i użytkowników przed obraźliwymi lub szkodliwymi treściami. Te zasady moderowania zawartości obejmują również złośliwe próby jailbreakingu, wstrzykiwania danych, wydobycia danych i naruszania praw autorskich. Cała zawartość jest sprawdzana dwukrotnie: po raz pierwszy podczas wprowadzania danych przez użytkownika i ponownie, gdy agent ma zamiar odpowiedzieć. Jeśli system znajdzie szkodliwą, obraźliwą lub złośliwą zawartość, uniemożliwi agentowi udzielenie odpowiedzi.
Wreszcie, najlepszą praktyką jest informowanie użytkowników o tym, że agent korzysta ze sztucznej inteligencji, dlatego poniższy domyślny komunikat informuje użytkowników: „Abyś był świadomy, czasami używam sztucznej inteligencji, aby odpowiedzieć na twoje pytania".