Często zadawane pytania dotyczące bezpieczeństwa danych i prywatności w Copilot systemie Dynamics 365 i Power Platform
Copilot dla Dynamics 365 i Power Platform jego funkcje są zgodne z zestawem podstawowych praktyk w zakresie zabezpieczeń i prywatności oraz standardem odpowiedzialnej Microsoft sztucznej inteligencji. Dane na platformach Dynamics 365 i Power Platform są chronione przez kompleksowe, wiodące w branży mechanizmy kontroli zgodności, bezpieczeństwa i prywatności.
Usługa Copilot opiera się na usłudze Microsoft Azure OpenAI Service i działa całkowicie w chmurze platformy Azure. Usługa Azure OpenAI oferuje dostępność regionalną i filtrowanie zawartości przez odpowiedzialną AI. Usługa Copilot używa modeli OpenAI ze wszystkimi możliwościami zabezpieczeń platformy Microsoft Azure. OpenAI to niezależna organizacja. Nie udostępniamy usłudze OpenAI Twoich danych.
Funkcje usługi Copilot nie są dostępne we wszystkich lokalizacjach i językach platformy Azure. W zależności od miejsca hostowania środowiska może być konieczne umożliwienie przenoszenia danych między lokalizacjami geograficznymi, by móc ich używać. Aby uzyskać więcej informacji, zobacz artykuły wymienione w obszarze Przenoszenie danych między lokalizacjami geograficznymi.
Co dzieje się z moimi danymi, gdy korzystam z Copilot?
Masz kontrolę nad swoimi danymi. Microsoft Nie udostępnia Twoich danych osobom trzecim, chyba że wyrazisz na to zgodę. Ponadto nie wykorzystujemy danych klienta do trenowania usługi Copilot lub jej funkcji AI, chyba że udzielono nam na to zgody. Usługa Copilot przestrzega istniejących uprawnień i zasad dotyczących danych, a jej odpowiedzi są oparte wyłącznie na danych, do których masz dostęp osobiście. Więcej informacji na temat kontrolowania danych i sposobu ich obsługi można znaleźć w artykułach wymienionych w obszarze Usługa Copilot w aplikacjach Dynamics 365 i Power Platform.
Usługa Copilot monitoruje obelżywe i szkodliwe wykorzystanie usługi dzięki przejściowemu przetwarzaniu. Nie przechowujemy ani nie przeprowadzamy przeglądu danych wejściowych i wyjściowych usługi Copilot w celach monitorowania nadużyć.
Jak Copilot używa moje dane?
Każda usługa lub funkcja korzysta z usługi Copilot w oparciu o dane, które podajesz lub konfigurujesz do przetwarzania przez usługę Copilot.
Monity (dane wejściowe) i odpowiedzi usługi Copilot (dane wyjściowe lub wyniki):
NIE są dostępne dla innych klientów.
NIE służą do trenowania ani ulepszania jakichkolwiek produktów lub usług innych firm (takich jak modele OpenAI).
NIE są używane do trenowania ani ulepszania Microsoft modeli sztucznej inteligencji, chyba że administrator dzierżawy wyrazi zgodę na udostępnianie nam danych. Dowiedz się więcej na stronie Często zadawane pytania dotyczące opcjonalnego udostępniania danych dla funkcji sztucznej inteligencji Copilot w Dynamics 365 i Power Platform.
Dowiedz się więcej o prywatności i zabezpieczeniach OpenAI danych usługi Azure. Aby dowiedzieć się więcej o tym, jak Microsoft chronić i wykorzystywać Twoje dane, przeczytaj nasze Oświadczenie o ochronie prywatności.
Dokąd idą moje dane?
Microsoft Działa w oparciu o zaufanie. Dokładamy wszelkich starań, aby zapewnić bezpieczeństwo, prywatność i zgodność we wszystkim, co robimy, i nasze podejście do AI nie jest inne. Dane klienta, w tym dane wejściowe i wyjściowe rozwiązania Copilot, są przechowywane w granicach zaufania chmury Microsoft .
W niektórych scenariuszach, takich jak funkcje obsługiwane przez usługę Bing i wtyczki copilot innych firm, dane klienta mogą być przesyłane poza granicę zaufania chmury Microsoft .
Czy Copilot może uzyskać dostęp do zaszyfrowanych treści?
Dane są przekazywane do usługi Copilot na podstawie poziomu dostępu bieżącego użytkownika. Jeśli użytkownik ma dostęp do zaszyfrowanych danych w rozwiązaniu Dynamics 365 i na platformie Power Platform i przekaże je do usługi Copilot, wówczas usługa Copilot będzie mieć do nich dostęp.
W jaki sposób Copilot chroni dane klientów?
Microsoft ma wyjątkową pozycję, aby dostarczać sztuczną inteligencję gotową do użycia w przedsiębiorstwie. Usługa Copilot jest obsługiwana przez usługę Azure OpenAI Service i jest zgodna z naszymi obecnymi zobowiązaniami wobec klientów w zakresie prywatności, zabezpieczeń i przepisów.
Oparte na Microsoft kompleksowym podejściu do zabezpieczeń, prywatności i zgodności. Copilot jest zintegrowany z Microsoft usługami takimi jak Dynamics 365 i Power Platform dziedziczy ich zasady i procesy zabezpieczeń, prywatności i zgodności, takie jak uwierzytelnianie wieloskładnikowe i granice zgodności.
Wiele form zabezpieczeń w celu ochrony danych organizacyjnych. Technologie po stronie usługi szyfrują zawartość organizacyjną podczas przechowywania i przenoszenia w celu zapewnienia rozbudowanego bezpieczeństwa. Połączenia są zabezpieczone za pomocą protokołu Transport warstwa Security (TLS), a transfery danych między Dynamics 365 Power Platform a platformą Azure OpenAI odbywają się za pośrednictwem sieci szkieletowej Microsoft , co zapewnia zarówno niezawodność, jak i bezpieczeństwo. Dowiedz się więcej o szyfrowaniu w Microsoft chmurze.
Zostało tak zaprojektowane, aby zapewnić ochronę danych zarówno na poziomie dzierżawy, jak i środowiska. Wiemy, że wyciek danych to coś, co spędza klientom sen z powiek. Microsoft Modele sztucznej inteligencji nie są trenowane i nie uczą się na podstawie danych dzierżawy ani monitów, chyba że administrator dzierżawy wyraził zgodę na udostępnianie nam danych. We własnych środowiskach możesz kontrolować dostęp za pomocą ustawionych uprawnień. Mechanizmy uwierzytelniania i autoryzacji rozdzielają żądania do udostępnionego modelu wśród dzierżawców. Usługa Copilot wykorzystuje dane, do których tylko Ty możesz uzyskać dostęp dzięki zastosowaniu tej samej technologii, która jest przez nas używana od lat w celu zabezpieczania danych klientów.
Czy odpowiedzi usługi Copilot zawsze są merytorycznie poprawne?
Podobnie jak w przypadku każdej generatywnej sztucznej inteligencji, odpowiedzi Copilot nie są w 100% oparte na faktach. Choć nieustannie staramy się ulepszać odpowiedzi tak, by były one w jak największym stopniu oparte na faktach, to przed przesłaniem ich do innych osób użytkownicy powinni zaufać własnemu osądowi i zdrowemu rozsądkowi. Usługa Copilot oferuje pomocne wersje robocze i podsumowania, dzięki którym możesz robić więcej, ale jest to w pełni automatyczne. Zawsze będziesz mieć możliwość przejrzenia zawartości wygenerowanej przez AI.
Nasze zespoły pracują, aby w sposób aktywny rozwiązać problemy m.in. z dostarczaniem nieprawidłowych i niezgodnych ze stanem faktycznym informacji, blokowaniem zawartości, bezpieczeństwem danych i rozpowszechnianiem szkodliwej i dyskryminującej zawartości zgodnie z naszymi zasadami odpowiedzialnej AI.
Oferujemy także wskazówki w środowisku użytkownika, by wzmacniać nawyki odpowiedzialnego postępowania i korzystania z zawartości generowanej przez AI.
Instrukcje i monity. W czasie korzystania z usługi Copilot monity i inne elementy z instrukcjami przypominają o przejrzeniu i edytowaniu odpowiedzi odpowiednio do potrzeb, a także ręcznego sprawdzania faktów, danych i tekstu pod kątem ich dokładności przed użyciem zawartości wygenerowanej przez AI.
Przywoływane źródła. W pewnych przypadkach usługa Copilot przywołuje swoje źródła informacji, zarówno publiczne, jak i wewnętrzne, aby można było przejrzeć je samodzielnie w celu potwierdzenia odpowiedzi.
Aby uzyskać więcej informacji, zobacz temat Odpowiedzialna sztuczna inteligencja — często zadawane pytania dotyczące produktu w rozwiązaniu Microsoft Learn.
Jak usługa Copilot blokuje szkodliwą zawartość?
Usługa Azure OpenAI Service zawiera system filtrowania zawartości, który współpracuje z modelami podstawowymi. Modele filtrowania zawartości dla kategorii Nienawiść i uczciwość, Treści seksualne, Przemoc i Samookaleczanie zostały specjalnie przeszkolone i przetestowane w różnych językach. Ten system działa poprzez uruchomienie zarówno monitu wejściowego, jak i odpowiedzi w ramach modeli klasyfikacji opracowanych w celu identyfikowania i blokowania szkodliwej zawartości wyjściowej.
Termin Nienawiść i uczciwość odnosi się do wszelkiej zawartości, która używa pejoratywnego lub dyskryminującego języka opartego na takich atrybutach, jak rasa, pochodzenie etniczne, narodowość, identyfikacja i wyrażenie płci, orientacja seksualna, status imigracyjny, stan sprawności, wygląd i wymiary ciała. Uczciwość polega na upewnieniu się, że systemy AI traktują wszystkie grupy ludzi równo bez przypisywania istniejących nierówności społecznych. Treść seksualna zawiera dyskusje dotyczące ludzkich organów rozrodczych, relacji romantycznych, działań wyrażonych w sposób erotyczny lub tkliwy, ciąży, stosunków seksualnych, w tym tych przedstawionych jako atak lub wymuszona przemoc seksualne, prostytucja, pornografia i wykorzystywanie. Przemoc opisuje język odnoszący się do działań fizycznych, których zamiarem jest wyrządzenie krzywdy lub odebranie życia, w tym działania, broń i powiązane pojęcia. Kategoria samookaleczania dotyczy języka odnoszącego się do świadomych działań mających na celu uszkodzenie swojego ciała lub odebranie sobie życia.
Dowiedz się więcej o filtrowaniu OpenAI zawartości platformy Azure.
Czy Copilot blokuje iniekcje monitów (ataki jailbreak)?
Ataki jailbreak to podpowiedzi użytkownika, które mają na celu sprowokowanie generatywnego modelu sztucznej inteligencji do zachowywania się w sposób, w jaki został wyszkolony, lub złamania zasad, których kazano mu przestrzegać. Od usług Dynamics 365 i Power Platform jest wymagana ochrona przed wstawianiem monitów. Dowiedz się więcej o atakach jailbreak i sposobach ich wykrywania za pomocą usługi Azure AI Content Safety.
Czy usługa Copilot blokuje pośrednie iniekcje monitów (ataki pośrednie)?
Ataki pośrednie, zwane także pośrednimi atakami monitów lub ataki wstrzykiwania monitów między domenami, są potencjalną luką w zabezpieczeniach, gdzie osoby trzecie umieszczają złośliwe instrukcje w dokumentach, do których generatywna AI może uzyskać dostęp i je przetwarzać. Od usług Dynamics 365 i Power Platform jest wymagana ochrona przed wstawianiem monitów pośrednich. Dowiedz się więcej o atakach pośrednich i sposobie ich wykrywania za pomocą usługi Azure AI Content Safety.
W jaki sposób testuje Microsoft się i weryfikuje jakość Copilota, w tym szybką ochronę przed wtryskiem i uziemione reakcje?
Przed uruchomieniem każdy nowy produkt Copilot i iteracja modelu językowego muszą przejść wewnętrzny przegląd odpowiedzialnego AI. Przed wydaniem używamy procesu o nazwie „czerwony zespół” (w którym zespół symuluje atak, znajdując i wykorzystując słabe punkty, by pomóc organizacji w poprawie jej zabezpieczeń), aby ocenić potencjalne zagrożenia w szkodliwej zawartości, scenariuszach ataków polegających na usunięciu zabezpieczeń i uzasadnionych odpowiedzi. Po wydaniu używamy automatycznych testów oraz narzędzi do ręcznego i automatycznego oceniania jakości odpowiedzi usługi Copilot.
W jaki sposób Microsoft ulepsza model podstawowy i mierzy poprawę w zakresie uziemionych odpowiedzi?
W kontekście AI, szczególnie AI, które dotyczy modeli językowych, takich jak ten, na którym jest oparta usługa Copilot, uzasadnianiepomaga AI w generowaniu odpowiedzi, które są odpowiedniejsze i mają sens w świecie rzeczywistym. Uzasadnianie pomaga zagwarantować, że odpowiedzi AI są oparte na wiarygodnej informacji i są jak najdokładniejszą i najbardziej odpowiednią odpowiedzią. Metryki uzasadnionych odpowiedzi oceniają, na ile dokładnie fakty podane w uzasadnionej zawartości podanej modelu są odzwierciedlone w ostatecznej odpowiedzi.
Modele podstawowe, takie jak GPT-4, są ulepszane przez techniki generowania rozszerzonego wspomaganego pobieraniem (RAG). Te techniki umożliwiają modelom użycie większej liczby informacji niż wykorzystane do ich trenowania w celu zrozumienia scenariusza użytkownika. RAG działa, najpierw identyfikując dane odpowiednie dla scenariusza, podobnie do sposobu, w jaki aparat wyszukiwania identyfikuje strony internetowe odpowiednie dla wyszukiwanych terminów użytkownika. Używa różnych podejść do identyfikowania, która zawartość jest odpowiednia dla monitu użytkownika i powinna być użyta do uzasadnienia odpowiedzi. Sposoby obejmują wyszukiwanie różnych typów indeksów, na przykład indeksów odwróconych z zastosowaniem technik wyszukiwania informacji, takich jak dopasowanie terminów, lub indeksów wektorowych przy użyciu porównywania odległości wektorowej pod kątem podobieństwa semantycznego. Po zidentyfikowaniu odpowiednich dokumentów RAG przekazuje dane do modelu wraz z bieżącą konwersacją, co daje modelowi więcej kontekstu do lepszego zrozumienia posiadanych informacji i wygenerowania odpowiedzi uzasadnionej w świecie rzeczywistym. Na koniec RAG sprawdza odpowiedź, aby upewnić się, że jest ona potwierdzona przez zawartość źródłową dostarczoną modelowi. Funkcje generatywne AI usługi Copilot wykorzystują RAG na wiele sposobów. Jednym z przykładów jest czat z użyciem danych, gdzie czatbot posiada uzasadnienie z własnych źródeł danych użytkownika.
Innym sposobem ulepszenia modelu podstawowego jest dopracowanie szczegółów. Duży zestaw danych par zapytanie-odpowiedź jest przedstawiony jako model podstawowy w celu poprawienia swojego oryginalnego trenowania za pomocą nowych próbek, które są przeznaczone dla konkretnego scenariusza. Model można następnie wdrożyć jako oddzielny model — ten, który można szczegółowo dopracować do tego scenariusza. Uzasadniane polega na zapewnieniu odpowiedniości wiedzy AI w świecie rzeczywistym, a dopracowanie szczegółów na skonkretyzowaniu wiedzy AI dla specyficznego zadania lub domeny. Microsoft Wykorzystuje dostrajanie na wiele sposobów. Na przykład używamy tworzenia przepływu usługi Power Automate na podstawie opisów języka naturalnego podanych przez użytkownika.
Czy usługa Copilot spełnia wymagania dotyczące zgodności z przepisami?
Microsoft Copilot jest częścią ekosystemu usług Dynamics 365 i Power Platform oraz spełnia te same wymagania w celu zapewnienia zgodności z przepisami. Aby uzyskać więcej informacji na temat certyfikatów Microsoft regulacyjnych usług, przejdź do portalu zaufania usług. Ponadto działanie narzędzia Copilot wpisuje się w nasze dążenie do odpowiedzialnego postępowania zgodnie z wytycznymi ujętymi w naszych zasadach odpowiedzialnego korzystania ze sztucznej inteligencji. Wraz z ewolucją Microsoft przepisów dotyczących sztucznej inteligencji nadal dostosowuje się i reaguje na nowe wymagania.
Więcej informacji
Usługa Copilot w aplikacjach Dynamics 365 i Power Platform
Dowiedz się więcej na stronie Często zadawane pytania dotyczące opcjonalnego udostępniania danych dla funkcji sztucznej inteligencji Copilot w Dynamics 365 i Power Platform.
Dostępność w różnych regionach i językach
Międzynarodowa dostępność Copilot
Przenoszenie danych między regionami geograficznymi
- Jak działa przenoszenie danych między regionami
- Konfigurowanie przenoszenia danych między lokalizacjami geograficznymi dla funkcji generatywnej sztucznej inteligencji poza Stanami Zjednoczonymi
- Współpilotowanie przenoszenia danych między lokalizacjami geograficznymi w Dynamics 365 Sales
- Przenoszenie danych przez różne obszary geograficzne w Dynamics 365 Business Central
Bezpieczeństwo na poziomie Microsoft
- Wprowadzenie do zabezpieczeń platformy Azure
- Szyfrowanie w Microsoft chmurze
- Dane, prywatność i zabezpieczenia usługi Azure OpenAI — usługi Azure AI
Prywatność w Microsoft
Microsoft Polityka prywatności
Odpowiedzialna AI
- Microsoft Standard odpowiedzialnej sztucznej inteligencji
- Odpowiedzialna sztuczna inteligencja – często zadawane pytania dotyczące Microsoft Power Platform
- Odpowiedzialna sztuczna inteligencja — często zadawane pytania dotyczące usługi Dynamics 365
- Odpowiedzialna sztuczna inteligencja – najczęściej zadawane pytania dotyczące Microsoft Copilot Studio