Udostępnij za pośrednictwem


Często zadawane pytania dotyczące bezpieczeństwa danych i prywatności w Copilot systemie Dynamics 365 i Power Platform

Copilot dla Dynamics 365 i Power Platform jego funkcje są zgodne z zestawem podstawowych praktyk w zakresie zabezpieczeń i prywatności oraz standardem odpowiedzialnej Microsoft sztucznej inteligencji. Dane na platformach Dynamics 365 i Power Platform są chronione przez kompleksowe, wiodące w branży mechanizmy kontroli zgodności, bezpieczeństwa i prywatności.

Usługa Copilot opiera się na usłudze Microsoft Azure OpenAI Service i działa całkowicie w chmurze platformy Azure. Usługa Azure OpenAI oferuje dostępność regionalną i filtrowanie zawartości przez odpowiedzialną AI. Usługa Copilot używa modeli OpenAI ze wszystkimi możliwościami zabezpieczeń platformy Microsoft Azure. OpenAI to niezależna organizacja. Nie udostępniamy usłudze OpenAI Twoich danych.

Funkcje usługi Copilot nie są dostępne we wszystkich lokalizacjach i językach platformy Azure. W zależności od miejsca hostowania środowiska może być konieczne umożliwienie przenoszenia danych między lokalizacjami geograficznymi, by móc ich używać. Aby uzyskać więcej informacji, zobacz artykuły wymienione w obszarze Przenoszenie danych między lokalizacjami geograficznymi.

Co dzieje się z moimi danymi, gdy korzystam z Copilot?

Masz kontrolę nad swoimi danymi. Microsoft Nie udostępnia Twoich danych osobom trzecim, chyba że wyrazisz na to zgodę. Ponadto nie wykorzystujemy danych klienta do trenowania usługi Copilot lub jej funkcji AI, chyba że udzielono nam na to zgody. Usługa Copilot przestrzega istniejących uprawnień i zasad dotyczących danych, a jej odpowiedzi są oparte wyłącznie na danych, do których masz dostęp osobiście. Więcej informacji na temat kontrolowania danych i sposobu ich obsługi można znaleźć w artykułach wymienionych w obszarze Usługa Copilot w aplikacjach Dynamics 365 i Power Platform.

Usługa Copilot monitoruje obelżywe i szkodliwe wykorzystanie usługi dzięki przejściowemu przetwarzaniu. Nie przechowujemy ani nie przeprowadzamy przeglądu danych wejściowych i wyjściowych usługi Copilot w celach monitorowania nadużyć.

Jak Copilot używa moje dane?

Każda usługa lub funkcja korzysta z usługi Copilot w oparciu o dane, które podajesz lub konfigurujesz do przetwarzania przez usługę Copilot.

Monity (dane wejściowe) i odpowiedzi usługi Copilot (dane wyjściowe lub wyniki):

Dowiedz się więcej o prywatności i zabezpieczeniach OpenAI danych usługi Azure. Aby dowiedzieć się więcej o tym, jak Microsoft chronić i wykorzystywać Twoje dane, przeczytaj nasze Oświadczenie o ochronie prywatności.

Dokąd idą moje dane?

Microsoft Działa w oparciu o zaufanie. Dokładamy wszelkich starań, aby zapewnić bezpieczeństwo, prywatność i zgodność we wszystkim, co robimy, i nasze podejście do AI nie jest inne. Dane klienta, w tym dane wejściowe i wyjściowe rozwiązania Copilot, są przechowywane w granicach zaufania chmury Microsoft .

W niektórych scenariuszach, takich jak funkcje obsługiwane przez usługę Bing i wtyczki copilot innych firm, dane klienta mogą być przesyłane poza granicę zaufania chmury Microsoft .

Czy Copilot może uzyskać dostęp do zaszyfrowanych treści?

Dane są przekazywane do usługi Copilot na podstawie poziomu dostępu bieżącego użytkownika. Jeśli użytkownik ma dostęp do zaszyfrowanych danych w rozwiązaniu Dynamics 365 i na platformie Power Platform i przekaże je do usługi Copilot, wówczas usługa Copilot będzie mieć do nich dostęp.

W jaki sposób Copilot chroni dane klientów?

Microsoft ma wyjątkową pozycję, aby dostarczać sztuczną inteligencję gotową do użycia w przedsiębiorstwie. Usługa Copilot jest obsługiwana przez usługę Azure OpenAI Service i jest zgodna z naszymi obecnymi zobowiązaniami wobec klientów w zakresie prywatności, zabezpieczeń i przepisów.

  • Oparte na Microsoft kompleksowym podejściu do zabezpieczeń, prywatności i zgodności. Copilot jest zintegrowany z Microsoft usługami takimi jak Dynamics 365 i Power Platform dziedziczy ich zasady i procesy zabezpieczeń, prywatności i zgodności, takie jak uwierzytelnianie wieloskładnikowe i granice zgodności.

  • Wiele form zabezpieczeń w celu ochrony danych organizacyjnych. Technologie po stronie usługi szyfrują zawartość organizacyjną podczas przechowywania i przenoszenia w celu zapewnienia rozbudowanego bezpieczeństwa. Połączenia są zabezpieczone za pomocą protokołu Transport warstwa Security (TLS), a transfery danych między Dynamics 365 Power Platform a platformą Azure OpenAI odbywają się za pośrednictwem sieci szkieletowej Microsoft , co zapewnia zarówno niezawodność, jak i bezpieczeństwo. Dowiedz się więcej o szyfrowaniu w Microsoft chmurze.

  • Zostało tak zaprojektowane, aby zapewnić ochronę danych zarówno na poziomie dzierżawy, jak i środowiska. Wiemy, że wyciek danych to coś, co spędza klientom sen z powiek. Microsoft Modele sztucznej inteligencji nie są trenowane i nie uczą się na podstawie danych dzierżawy ani monitów, chyba że administrator dzierżawy wyraził zgodę na udostępnianie nam danych. We własnych środowiskach możesz kontrolować dostęp za pomocą ustawionych uprawnień. Mechanizmy uwierzytelniania i autoryzacji rozdzielają żądania do udostępnionego modelu wśród dzierżawców. Usługa Copilot wykorzystuje dane, do których tylko Ty możesz uzyskać dostęp dzięki zastosowaniu tej samej technologii, która jest przez nas używana od lat w celu zabezpieczania danych klientów.

Czy odpowiedzi usługi Copilot zawsze są merytorycznie poprawne?

Podobnie jak w przypadku każdej generatywnej sztucznej inteligencji, odpowiedzi Copilot nie są w 100% oparte na faktach. Choć nieustannie staramy się ulepszać odpowiedzi tak, by były one w jak największym stopniu oparte na faktach, to przed przesłaniem ich do innych osób użytkownicy powinni zaufać własnemu osądowi i zdrowemu rozsądkowi. Usługa Copilot oferuje pomocne wersje robocze i podsumowania, dzięki którym możesz robić więcej, ale jest to w pełni automatyczne. Zawsze będziesz mieć możliwość przejrzenia zawartości wygenerowanej przez AI.

Nasze zespoły pracują, aby w sposób aktywny rozwiązać problemy m.in. z dostarczaniem nieprawidłowych i niezgodnych ze stanem faktycznym informacji, blokowaniem zawartości, bezpieczeństwem danych i rozpowszechnianiem szkodliwej i dyskryminującej zawartości zgodnie z naszymi zasadami odpowiedzialnej AI.

Oferujemy także wskazówki w środowisku użytkownika, by wzmacniać nawyki odpowiedzialnego postępowania i korzystania z zawartości generowanej przez AI.

  • Instrukcje i monity. W czasie korzystania z usługi Copilot monity i inne elementy z instrukcjami przypominają o przejrzeniu i edytowaniu odpowiedzi odpowiednio do potrzeb, a także ręcznego sprawdzania faktów, danych i tekstu pod kątem ich dokładności przed użyciem zawartości wygenerowanej przez AI.

  • Przywoływane źródła. W pewnych przypadkach usługa Copilot przywołuje swoje źródła informacji, zarówno publiczne, jak i wewnętrzne, aby można było przejrzeć je samodzielnie w celu potwierdzenia odpowiedzi.

Aby uzyskać więcej informacji, zobacz temat Odpowiedzialna sztuczna inteligencja — często zadawane pytania dotyczące produktu w rozwiązaniu Microsoft Learn.

Jak usługa Copilot blokuje szkodliwą zawartość?

Usługa Azure OpenAI Service zawiera system filtrowania zawartości, który współpracuje z modelami podstawowymi. Modele filtrowania zawartości dla kategorii Nienawiść i uczciwość, Treści seksualne, Przemoc i Samookaleczanie zostały specjalnie przeszkolone i przetestowane w różnych językach. Ten system działa poprzez uruchomienie zarówno monitu wejściowego, jak i odpowiedzi w ramach modeli klasyfikacji opracowanych w celu identyfikowania i blokowania szkodliwej zawartości wyjściowej.

Termin Nienawiść i uczciwość odnosi się do wszelkiej zawartości, która używa pejoratywnego lub dyskryminującego języka opartego na takich atrybutach, jak rasa, pochodzenie etniczne, narodowość, identyfikacja i wyrażenie płci, orientacja seksualna, status imigracyjny, stan sprawności, wygląd i wymiary ciała. Uczciwość polega na upewnieniu się, że systemy AI traktują wszystkie grupy ludzi równo bez przypisywania istniejących nierówności społecznych. Treść seksualna zawiera dyskusje dotyczące ludzkich organów rozrodczych, relacji romantycznych, działań wyrażonych w sposób erotyczny lub tkliwy, ciąży, stosunków seksualnych, w tym tych przedstawionych jako atak lub wymuszona przemoc seksualne, prostytucja, pornografia i wykorzystywanie. Przemoc opisuje język odnoszący się do działań fizycznych, których zamiarem jest wyrządzenie krzywdy lub odebranie życia, w tym działania, broń i powiązane pojęcia. Kategoria samookaleczania dotyczy języka odnoszącego się do świadomych działań mających na celu uszkodzenie swojego ciała lub odebranie sobie życia.

Dowiedz się więcej o filtrowaniu OpenAI zawartości platformy Azure.

Czy Copilot blokuje iniekcje monitów (ataki jailbreak)?

Ataki jailbreak to podpowiedzi użytkownika, które mają na celu sprowokowanie generatywnego modelu sztucznej inteligencji do zachowywania się w sposób, w jaki został wyszkolony, lub złamania zasad, których kazano mu przestrzegać. Od usług Dynamics 365 i Power Platform jest wymagana ochrona przed wstawianiem monitów. Dowiedz się więcej o atakach jailbreak i sposobach ich wykrywania za pomocą usługi Azure AI Content Safety.

Czy usługa Copilot blokuje pośrednie iniekcje monitów (ataki pośrednie)?

Ataki pośrednie, zwane także pośrednimi atakami monitów lub ataki wstrzykiwania monitów między domenami, są potencjalną luką w zabezpieczeniach, gdzie osoby trzecie umieszczają złośliwe instrukcje w dokumentach, do których generatywna AI może uzyskać dostęp i je przetwarzać. Od usług Dynamics 365 i Power Platform jest wymagana ochrona przed wstawianiem monitów pośrednich. Dowiedz się więcej o atakach pośrednich i sposobie ich wykrywania za pomocą usługi Azure AI Content Safety.

W jaki sposób testuje Microsoft się i weryfikuje jakość Copilota, w tym szybką ochronę przed wtryskiem i uziemione reakcje?

Przed uruchomieniem każdy nowy produkt Copilot i iteracja modelu językowego muszą przejść wewnętrzny przegląd odpowiedzialnego AI. Przed wydaniem używamy procesu o nazwie „czerwony zespół” (w którym zespół symuluje atak, znajdując i wykorzystując słabe punkty, by pomóc organizacji w poprawie jej zabezpieczeń), aby ocenić potencjalne zagrożenia w szkodliwej zawartości, scenariuszach ataków polegających na usunięciu zabezpieczeń i uzasadnionych odpowiedzi. Po wydaniu używamy automatycznych testów oraz narzędzi do ręcznego i automatycznego oceniania jakości odpowiedzi usługi Copilot.

W jaki sposób Microsoft ulepsza model podstawowy i mierzy poprawę w zakresie uziemionych odpowiedzi?

W kontekście AI, szczególnie AI, które dotyczy modeli językowych, takich jak ten, na którym jest oparta usługa Copilot, uzasadnianiepomaga AI w generowaniu odpowiedzi, które są odpowiedniejsze i mają sens w świecie rzeczywistym. Uzasadnianie pomaga zagwarantować, że odpowiedzi AI są oparte na wiarygodnej informacji i są jak najdokładniejszą i najbardziej odpowiednią odpowiedzią. Metryki uzasadnionych odpowiedzi oceniają, na ile dokładnie fakty podane w uzasadnionej zawartości podanej modelu są odzwierciedlone w ostatecznej odpowiedzi.

Modele podstawowe, takie jak GPT-4, są ulepszane przez techniki generowania rozszerzonego wspomaganego pobieraniem (RAG). Te techniki umożliwiają modelom użycie większej liczby informacji niż wykorzystane do ich trenowania w celu zrozumienia scenariusza użytkownika. RAG działa, najpierw identyfikując dane odpowiednie dla scenariusza, podobnie do sposobu, w jaki aparat wyszukiwania identyfikuje strony internetowe odpowiednie dla wyszukiwanych terminów użytkownika. Używa różnych podejść do identyfikowania, która zawartość jest odpowiednia dla monitu użytkownika i powinna być użyta do uzasadnienia odpowiedzi. Sposoby obejmują wyszukiwanie różnych typów indeksów, na przykład indeksów odwróconych z zastosowaniem technik wyszukiwania informacji, takich jak dopasowanie terminów, lub indeksów wektorowych przy użyciu porównywania odległości wektorowej pod kątem podobieństwa semantycznego. Po zidentyfikowaniu odpowiednich dokumentów RAG przekazuje dane do modelu wraz z bieżącą konwersacją, co daje modelowi więcej kontekstu do lepszego zrozumienia posiadanych informacji i wygenerowania odpowiedzi uzasadnionej w świecie rzeczywistym. Na koniec RAG sprawdza odpowiedź, aby upewnić się, że jest ona potwierdzona przez zawartość źródłową dostarczoną modelowi. Funkcje generatywne AI usługi Copilot wykorzystują RAG na wiele sposobów. Jednym z przykładów jest czat z użyciem danych, gdzie czatbot posiada uzasadnienie z własnych źródeł danych użytkownika.

Innym sposobem ulepszenia modelu podstawowego jest dopracowanie szczegółów. Duży zestaw danych par zapytanie-odpowiedź jest przedstawiony jako model podstawowy w celu poprawienia swojego oryginalnego trenowania za pomocą nowych próbek, które są przeznaczone dla konkretnego scenariusza. Model można następnie wdrożyć jako oddzielny model — ten, który można szczegółowo dopracować do tego scenariusza. Uzasadniane polega na zapewnieniu odpowiedniości wiedzy AI w świecie rzeczywistym, a dopracowanie szczegółów na skonkretyzowaniu wiedzy AI dla specyficznego zadania lub domeny. Microsoft Wykorzystuje dostrajanie na wiele sposobów. Na przykład używamy tworzenia przepływu usługi Power Automate na podstawie opisów języka naturalnego podanych przez użytkownika.

Czy usługa Copilot spełnia wymagania dotyczące zgodności z przepisami?

Microsoft Copilot jest częścią ekosystemu usług Dynamics 365 i Power Platform oraz spełnia te same wymagania w celu zapewnienia zgodności z przepisami. Aby uzyskać więcej informacji na temat certyfikatów Microsoft regulacyjnych usług, przejdź do portalu zaufania usług. Ponadto działanie narzędzia Copilot wpisuje się w nasze dążenie do odpowiedzialnego postępowania zgodnie z wytycznymi ujętymi w naszych zasadach odpowiedzialnego korzystania ze sztucznej inteligencji. Wraz z ewolucją Microsoft przepisów dotyczących sztucznej inteligencji nadal dostosowuje się i reaguje na nowe wymagania.

Dowiedz się więcej o dostępności rozwiązania Dynamics 365 Power Platform i Copilot, lokalizacjach danych klientów oraz zgodności z globalnymi, regionalnymi i branżowymi wymaganiami dotyczącymi zarządzania danymi.

Więcej informacji

Usługa Copilot w aplikacjach Dynamics 365 i Power Platform

Produkt Funkcja Wymagane środowiska zarządzane? Jak wyłączyć tę funkcję
AI Builder Scenariusze w wersji zapoznawcza Nie. Scenariusze w wersji zapoznawcza
Copilot Studio Ogólna wiedza na temat sztucznej inteligencji Nie. Copilot Studio Bezpieczeństwo i nadzór
Copilot Studio Tworzenie i edytowanie tematów za pomocą Copilot Nie. Copilot Studio Bezpieczeństwo i nadzór
Copilot Studio Działania generatywne Nie. Copilot Studio Bezpieczeństwo i nadzór
Copilot Studio Odpowiedzi generatywne Nie. Copilot Studio Bezpieczeństwo i nadzór
Dynamics 365 Business Central Wszystkie (pełna lista jest dostępna na stronie aka.ms/bcAI). Nie. Aktywuj funkcje
Dynamics 365 Customer Insights - Data Tworzenie segmentów za pomocą funkcji Copilot dla Customer Insights - Data (wersja zapoznawcza) Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji Copilot dzięki Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights - Data Omówienie raportu przygotowywania danych (wersja zapoznawcza) Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji Copilot dzięki Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights - Data Uzyskaj odpowiedzi na pytania dotyczące możliwości z rozwiązania Copilot (wersja zapoznawcza) Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji Copilot dzięki Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights (Dane) Prowadzenie dialogu z danymi przy użyciu rozwiązania Copilot w Customer Insights Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji Copilot dzięki Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights - Data Wyświetlanie konfiguracji systemu Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji Copilot dzięki Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot pomaga uczyć się i robić więcej (recenzja) Nie Dostępność tego pomocnika w środowisku jest określana przez ustawienia administratora platformy Power Platform. Dowiedz się, jak dodać rozwiązanie Copilot dla aplikacji opartych na modelu.


Ta funkcja to "współpilot aplikacji Customer Insights - Journeys" i dlatego jest włączona w Power Platform centrum administracyjnym. Dowiedz się więcej: Odpowiedzialna AI — często zadawane pytania
Dynamics 365 Customer Insights - Journeys Tworzenie procesów pozyskiwania klientów przy użyciu pomocy sztucznej inteligencji Nie Rozwiązanie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Odśwież i udoskonal swój przekaz Nie Rozwiązanie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Stylizuj swoje e-maile za pomocą motywów wspomaganych przez sztuczną inteligencję Nie Rozwiązanie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Docieranie do właściwych klientów za pomocą pomocy przy zapytaniach

Nie Rozwiązanie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Użyj sztucznej inteligencji, aby rozpocząć tworzenie wiadomości e-mail Nie Rozwiązanie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Używanie obrazów w treściach Nie Rozwiązanie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Rozwiązanie Dynamics 365 Customer Service Redagowanie wiadomości e-mail Nie. Zarządzanie funkcjami Copilot w obsłudze klienta
Rozwiązanie Dynamics 365 Customer Service Tworzenie wersji roboczej odpowiedzi na czacie Nie. Zarządzanie funkcjami Copilot w obsłudze klienta
Rozwiązanie Dynamics 365 Customer Service Odpowiadanie na pytania Nie. Zarządzanie funkcjami Copilot w obsłudze klienta
Rozwiązanie Dynamics 365 Customer Service Podsumuj sprawę i rozmowę Nie. Zarządzanie funkcjami Copilot w obsłudze klienta
Power Apps Tworzenie aplikacji za pomocą konwersacji Nie. Zarządzanie ustawieniami funkcji
Power Apps Pomoc Copilot w wypełnianiu formularzy w aplikacjach opartych na modelu Nie Zarządzanie ustawieniami funkcji
Power Apps Twórz dobrze napisany tekst wejściowy za pomocą Copilot Nie, licencja użytkownika premium Twórz dobrze napisany tekst wejściowy za pomocą Copilot
Power Apps Z Excela do tabeli Nie Zarządzanie ustawieniami funkcji
Power Apps Używanie języka naturalnego do edytowania aplikacji za pomocą panelu Copilot Nie Zarządzanie ustawieniami funkcji
Power Automate Narzędzie Copilot w przepływach w chmurze na stronie głównej i w projektancie (szczegółowe informacje można znaleźć w sekcji Wprowadzenie do usługi Copilot w przepływach w chmurze). Nie Kontakt z działem pomocy technicznej w celu uruchomienia skryptu programu PowerShell.
Power Pages Wszystkie (szczegółowe informacje są dostępne w sekcji Omówienie usługi Copilot AI w rozwiązaniu Power Pages). Nie Wyłącz Copilota w Power Pages

Dowiedz się więcej na stronie Często zadawane pytania dotyczące opcjonalnego udostępniania danych dla funkcji sztucznej inteligencji Copilot w Dynamics 365 i Power Platform.

Dostępność w różnych regionach i językach

Międzynarodowa dostępność Copilot

Przenoszenie danych między regionami geograficznymi

Bezpieczeństwo na poziomie Microsoft

Prywatność w Microsoft

Microsoft Polityka prywatności

Odpowiedzialna AI