Udostępnij za pośrednictwem


Często zadawane pytania dotyczące konwersacyjnego środowiska pierwszego uruchomienia

Te często zadawane pytania (FAQ) opisują efekt sztucznej inteligencji pierwszego uruchomienia konwersacji Copilot Studio.

Co to jest konwersacyjne środowisko pierwszego uruchomienia?

Konwersacyjne środowisko pierwszego uruchomienia służy do tworzenia niestandardowego agent lub agent funkcji Copilot. W trakcie konwersacji przewiduje nazwę, opis, instrukcje, wszelkie dodane źródła wiedzy internetowej i monity początkowe (dla agentów Copilot)

Jakie są możliwości konwersacyjnego pierwszego uruchomienia?

Możesz szybko rozpocząć pracę z niestandardową konfiguracją agent lub agent funkcji Copilot za pomocą interfejsu języka naturalnego. System zaktualizuje konfigurację na podstawie danych wejściowych producenta podczas rozmowy.

Jakie jest przeznaczenie konwersacyjnego środowiska pierwszego uruchomienia?

Możesz użyć tego doświadczenia, aby rozpocząć początkową konfigurację agent.

W jaki sposób zostało ocenione środowisko konwersacyjne pierwszego uruchomienia i jakie metryki są używane do mierzenia wydajności?

Oceniliśmy system pod kątem dokładności tego, jak dobrze przewidywana konfiguracja reprezentowała żądania w rozmowie, aby zapewnić jakość. Przetestowaliśmy również, aby upewnić się, że system nie generuje szkodliwych lub złośliwych treści.

Jakie są ograniczenia konwersacyjnego środowiska pierwszego uruchomienia i jak użytkownicy mogą zminimalizować wpływ ograniczeń podczas korzystania z niego?

  • Konwersacyjne środowisko pierwszego uruchomienia obsługuje język angielski i nie jest przeznaczone do obsługi innych języków.

    Zobacz Obsługa języków, aby uzyskać najnowszą listę obsługiwanych języków dla tej i innych funkcji generatywnej sztucznej inteligencji.
    Możesz być w stanie używać innych języków, ale wygenerowane odpowiedzi mogą być niespójne, a agent może nie odpowiadać poprawnie lub zgodnie z oczekiwaniami.

  • To środowisko nie może pomóc w przetestowaniu agent i może być używane tylko do konfigurowania:

    • Nazwa
    • Opis
    • Instrukcje, które tworzą agent
    • Internetowe źródła wiedzy
    • Monity początkowe dla agentów Copilot
  • Zapoznaj się z często zadawanymi pytaniami dotyczącymi odpowiedzialnej sztucznej inteligencji, aby uzyskać odpowiedzi generatywne, aby uzyskać dodatkowe zagadnienia i ograniczenia dotyczące korzystania z odpowiedzi generatywnych w agentach tworzonych za pomocą tej funkcji.

Jakie czynniki i ustawienia operacyjne pozwalają na efektywne i odpowiedzialne korzystanie z konwersacyjnego środowiska pierwszego uruchomienia?

Możesz używać języka naturalnego do rozmowy z systemem przez czat lub możesz bezpośrednio edytować konfigurację ręcznie w panelu bocznym. Jeśli edytujesz ręcznie, system może zostać zaktualizowany o dodatkowe informacje w miarę kontynuowania rozmowy.

Jakie zabezpieczenia są stosowane w ramach Copilot Studio odpowiedzialnej sztucznej inteligencji?

Generatywne odpowiedzi obejmują różne zabezpieczenia, aby zapewnić administratorom, twórcom i użytkownikom bezpieczne i zgodne środowisko. Administratorzy mają pełną kontrolę nad funkcjami w swojej dzierżawie i zawsze mogą wyłączyć możliwość publikowania agentów z generatywnymi odpowiedziami w organizacji. Twórcy mogą dodawać niestandardowe instrukcje, aby wpływać na typy odpowiedzi zwracanych przez ich agentów. Aby uzyskać więcej informacji na temat najlepszych praktyk dotyczących pisania instrukcji niestandardowych, zobacz Używanie monitu modyfikacji w celu dostarczenia niestandardowych instrukcji do agent.

Twórcy mogą również ograniczyć źródła wiedzy, których agenci mogą używać do odpowiadania na pytania. Aby umożliwić agentom odpowiadanie na pytania wykraczające poza zakres skonfigurowanych źródeł wiedzy, twórcy mogą włączyć funkcję wiedzy ogólnej AI. Aby ograniczyć agentów do odpowiadania na pytania tylko w zakresie skonfigurowanych źródeł wiedzy, twórcy powinni wyłączyć tę funkcję.

Copilot Studio Stosuje również zasady moderowania treści dla wszystkich żądań generatywnej sztucznej inteligencji, aby chronić administratorów, twórców i użytkowników przed obraźliwymi lub szkodliwymi treściami. Te zasady moderowania treści obejmują również złośliwe próby jailbreakingu, natychmiastowego wstrzyknięcia, szybkiej eksfiltracji i naruszenia praw autorskich. Cała zawartość jest sprawdzana dwukrotnie: po raz pierwszy podczas wprowadzania danych przez użytkownika i ponownie, gdy agent ma odpowiedzieć. Jeśli system znajdzie szkodliwą, obraźliwą lub złośliwą zawartość, uniemożliwi to agent odpowiedź.

Wreszcie, najlepszym rozwiązaniem jest komunikowanie użytkownikom, że agent korzysta ze sztucznej inteligencji, dlatego następujący domyślny komunikat informuje użytkowników: "Żebyś był świadomy, czasami używam sztucznej inteligencji, aby odpowiedzieć na twoje pytania".