Udostępnij za pośrednictwem


Dane, prywatność i zabezpieczenia dla Microsoft 365 Copilot

Microsoft 365 Copilot to zaawansowany aparat przetwarzania i orkiestrowania, który zapewnia funkcje produktywności oparte na sztucznej inteligencji poprzez koordynację następnych składników:

  • Duże modele językowe (LLM)
  • Zawartość platformy Microsoft Graph, taka jak wiadomości e-mail, czaty i dokumenty, do których masz uprawnienia dostępu.
  • Aplikacje biurowe Microsoft 365, których używasz codziennie, takie jak Word i PowerPoint.

Aby zapoznać się ze sposobem współdziałania tych trzech składników, zobacz omówienie rozwiązania Microsoft 365 Copilot. Aby uzyskać linki do innej zawartości związanej z rozwiązaniem Microsoft 365 Copilot, zobacz dokumentację rozwiązania Microsoft 365 Copilot.

Ważna

  • Usługa Microsoft 365 Copilot jest zgodna z naszymi istniejącymi zobowiązaniami dotyczącymi ochrony prywatności, zabezpieczeń i zgodności z przepisami wobec klientów komercyjnych platformy Microsoft 365, w tym z Ogólnym rozporządzeniem o ochronie danych (RODO) i Geograficznym ograniczeniem przetwarzania danych z Unii Europejskiej (UE).
  • Polecenia, odpowiedzi i dane dostępne za pośrednictwem platformy Microsoft Graph nie są używane do trenowania dużych modeli językowych, w tym tych używanych przez usługę Microsoft 365 Copilot.
  • Funkcja Microsoft 365 Copilot działa z wieloma zabezpieczeniami, które obejmują między innymi blokowanie szkodliwej zawartości, wykrywanie materiałów chronionych i blokowanie wstrzyknięć poleceń (ataki typu jailbreak).

Informacje zawarte w tym artykule mają pomóc w udzieleniu odpowiedzi na następujące pytania:

Uwaga

Rozwiązanie Microsoft 365 Copilot będzie rozwijać z czasem się dzięki nowym możliwościom. Aby być na bieżąco z usługą Microsoft 365 Copilot lub zadawać pytania, odwiedź społeczność usługi Microsoft 365 Copilot w witrynie Microsoft Tech Community.

W jaki sposób usługa Microsoft 365 Copilot używa zastrzeżonych danych organizacyjnych?

Usługa Microsoft 365 Copilot dostarcza wartości, łącząc duże modele językowe z danymi organizacji. Usługa Microsoft 365 Copilot uzyskuje dostęp do zawartości i kontekstu za pośrednictwem platformy Microsoft Graph. Może generować odpowiedzi zakotwiczone w danych organizacyjnych, takich jak dokumenty użytkownika, wiadomości e-mail, kalendarz, czaty, spotkania i kontakty. Rozwiązanie Microsoft 365 Copilot łączy tę zawartość z kontekstem roboczym użytkownika, takim jak spotkanie, w którym użytkownik teraz uczestniczy, wymiana wiadomości e-mail na dany temat lub konwersacja na czacie, którą użytkownik prowadził w zeszłym tygodniu. Usługa Microsoft 365 Copilot wykorzystuje to połączenie zawartości i kontekstu, aby pomóc w dostarczaniu dokładnych, odpowiednich i kontekstowych odpowiedzi.

Ważna

Polecenia, odpowiedzi i dane dostępne za pośrednictwem platformy Microsoft Graph nie są używane do trenowania dużych modeli językowych, w tym tych używanych przez usługę Microsoft 365 Copilot.

Usługa Microsoft 365 Copilot wyświetla tylko te dane organizacyjne, do których poszczególni użytkownicy mają co najmniej uprawnienia do wyświetlania. Ważne jest, aby używać modeli uprawnień dostępnych w usługach platformy Microsoft 365, takich jak SharePoint, aby zapewnić odpowiednim użytkownikom lub grupom odpowiedni dostęp do odpowiedniej zawartości w organizacji. Obejmuje to uprawnienia udzielane użytkownikom spoza organizacji za pośrednictwem rozwiązań do współpracy między dzierżawami, takich jak kanały udostępnione w usłudze Microsoft Teams.

Podczas wprowadzania poleceń za pomocą funkcji Microsoft Copilot dla Microsoft 365 informacje zawarte w monitach, pobierane dane i generowane odpowiedzi pozostają w granicach usługi Microsoft 365, zgodnie z naszymi aktualnymi zobowiązaniami dotyczącymi ochrony prywatności, zabezpieczeń i zgodności. Rozwiązanie Microsoft 365 Copilot używa usług Azure OpenAI do przetwarzania, a nie publicznie dostępnych usług OpenAI. Usługa Azure OpenAI nie buforuje zawartości klienta, a funkcja Copilot zmodyfikowała polecenia dla funkcji Microsoft 365 Copilot. Aby uzyskać więcej informacji, zobacz sekcję Dane przechowywane na temat interakcji użytkownika z funkcją Microsoft 365 Copilot w dalszej części tego artykułu.

Uwaga

  • Jeśli używasz wtyczek w celu ułatwienia funkcji Microsoft 365 Copilot dostarczania bardziej odpowiednich informacji, sprawdź oświadczenie o ochronie prywatności i warunki korzystania z wtyczki, aby określić, jak będzie ona obsługiwać dane organizacji. Aby uzyskać więcej informacji, zobacz Rozszerzalność funkcji Microsoft 365 Copilot.
  • Jeśli używasz wtyczki zawartości internetowej, funkcja Microsoft 365 Copilot analizuje polecenie użytkownika i identyfikuje terminy, w przypadku których wyszukiwanie w sieci Web poprawi jakość odpowiedzi. Na podstawie tych terminów funkcja Copilot generuje zapytanie wyszukiwania, które wysyła do usługi wyszukiwania Bing. Aby uzyskać więcej informacji, zobacz artykuł Dane, prywatność i zabezpieczenia zapytań internetowych w funkcjach Microsoft 365 Copilot i Microsoft Copilot.

Chociaż monitorowanie nadużyć, w tym przegląd zawartości przez człowieka, jest dostępne w usłudze Azure OpenAI, funkcja Microsoft 365 Copilot z niej zrezygnowała. Aby uzyskać informacje na temat filtrowania zawartości, zobacz sekcję Jak funkcja Copilot blokuje szkodliwą zawartość? w dalszej części tego artykułu.

Uwaga

Możemy wykorzystywać opcjonalne opinie klientów do ulepszania funkcji Microsoft 365 Copilot, podobnie jak wykorzystujemy opinie klientów do ulepszania innych usług platformy Microsoft 365 i aplikacji biurowych platformy Microsoft 365. Nie używamy tych opinii do trenowania podstawowych dużych modeli językowych używanych przez usługę Microsoft 365 Copilot. Klienci mogą zarządzać opiniami za pośrednictwem kontrolek administratora. Aby uzyskać więcej informacji, zobacz Zarządzanie opiniami firmy Microsoft dla organizacji i Przekazywanie opinii na temat funkcji Microsoft Copilot za pomocą aplikacji Microsoft 365.

Dane przechowywane na temat interakcji użytkownika z funkcją Microsoft 365 Copilot

Gdy użytkownik wchodzi w interakcję z funkcją Microsoft 365 Copilot (korzystając z aplikacji takich jak Word, PowerPoint, Excel, OneNote, Loop lub Whiteboard), przechowujemy dane dotyczące tych interakcji. Przechowywane dane obejmują monit użytkownika i odpowiedź funkcji Copilot, w tym cytaty do wszelkich informacji używanych do ugruntowania odpowiedzi funkcji Copilot. Określamy monit użytkownika i odpowiedź copilot na ten monit jako "zawartość interakcji", a zapis tych interakcji jest historią działania Copilot użytkownika. Na przykład te przechowywane dane udostępniają użytkownikom historię aktywności copilot w Business Chat i spotkaniach w usłudze Microsoft Teams. Te dane są przetwarzane i przechowywane zgodnie ze zobowiązaniami umownymi wraz z inną zawartością organizacji na platformie Microsoft 365. Dane są szyfrowane, gdy są przechowywane i nie są używane do trenowania podstawowych modułów LLM, a w tym tych używanych przez funkcję Microsoft 365 Copilot.

Aby wyświetlić te przechowywane dane i zarządzać nimi, administratorzy mogą używać wyszukiwania zawartości lub usługi Microsoft Purview. Administratorzy mogą również używać usługi Microsoft Purview do ustawiania zasad przechowywania danych związanych z interakcjami czatu z funkcją Copilot. Aby uzyskać więcej informacji, zapoznaj się z następującymi artykułami:

W przypadku czatów w usłudze Microsoft Teams z funkcją Copilot administratorzy mogą również wyświetlać przechowywane dane za pomocą interfejsów API eksportu usługi Microsoft Teams.

Usuwanie historii interakcji użytkowników z funkcją Microsoft 365 Copilot

Użytkownicy mogą usunąć swoją historię aktywności Copilot, która obejmuje monity i odpowiedzi zwracane przez copilot, przechodząc do portalu Moje konto. Aby uzyskać więcej informacji, zobacz Usuwanie historii działań Microsoft 365 Copilot.

Usługa Microsoft 365 Copilot i Geograficzne ograniczenie przetwarzania danych z UE

Wywołania funkcji Copilot platformy Microsoft 365 do LLM są kierowane do najbliższych centrów danych w regionie, ale mogą również nawiązywać połączenia z innymi regionami, w których pojemność jest dostępna w okresach wysokiego wykorzystania.

W przypadku użytkowników z Unii Europejskiej oferujemy dodatkowe zabezpieczenia w celu zapewnienia zgodności z Geograficznym ograniczeniem przetwarzania danych z UE. Ruch w UE podlega Geograficznemu ograniczeniu przetwarzania danych z UE, podczas gdy ruch na całym świecie może być wysyłany do UE i innych lokalizacji geograficznych na potrzeby przetwarzania przez duże modele językowe.

Rozwiązanie Microsoft 365 Copilot i miejsce przechowywania danych

Funkcja Microsoft 365 Copilot przestrzega zobowiązań dotyczących miejsca przechowywania danych, jak określono w Warunkach dotyczących produktów firmy Microsoft i Uzupełnienia o Ochronie Danych. Funkcja Microsoft 365 Copilot została dodana jako obciążenie objęte zobowiązaniami do przechowywania danych w Warunkach dotyczących produktów firmy Microsoft 1 marca 2024 r.

Oferty Microsoft Advanced Data Residency (ADR) i Multi-Geo Capabilities obejmują zobowiązania do przechowywania danych dla klientów funkcji Microsoft 365 Copilot od 1 marca 2024 r. W przypadku klientów z UE funkcja Microsoft 365 Copilot jest usługą Geograficznego ograniczenia przetwarzania danych z UE. Zapytania klientów spoza UE mogą być przetwarzane w Stanach Zjednoczonych, UE lub innych regionach.

Rozszerzalność usługi Microsoft 365 Copilot

Podczas gdy funkcja Microsoft 365 Copilot jest już w stanie korzystać z aplikacji i danych w ramach ekosystemu platformy Microsoft 365, wiele organizacji nadal polega na różnych zewnętrznych narzędziach i usługach do zarządzania pracą i współpracy. Środowiska funkcji Microsoft 365 Copilot mogą odwoływać się do narzędzi i usług innych firm podczas odpowiadania na żądanie użytkownika za pomocą wtyczek lub łączników usługi Microsoft Graph. Dane z łączników usługi Graph mogą być zwracane w odpowiedziach usługi Microsoft 365 Copilot, jeśli użytkownik ma uprawnienia dostępu do tych informacji.

Po włączeniu wtyczek funkcja Microsoft 365 Copilot określa, czy musi użyć określonej wtyczki, aby pomóc w udzieleniu użytkownikowi odpowiedniej odpowiedzi. Jeśli wtyczka jest potrzebna, funkcja Microsoft 365 Copilot generuje zapytanie wyszukiwania, które jest wysyłane do wtyczki w imieniu użytkownika. Zapytanie jest oparte na wierszu polecenia użytkownika, historii aktywności copilot i danych, do które użytkownik ma dostęp na platformie Microsoft 365.

W sekcji Aplikacje zintegrowaneCentrum administracyjnego Microsoft 365 administratorzy mogą wyświetlić uprawnienia i dostęp do danych wymagane przez wtyczkę, a także warunki użytkowania wtyczki i oświadczenie o ochronie prywatności. Administratorzy mają pełną kontrolę nad wyborem wtyczek dozwolonych w ich organizacji. Użytkownik może uzyskać dostęp tylko do wtyczek, na które zezwala jego administrator i które użytkownik zainstalował lub do których został przypisany. Funkcja Microsoft 365 Copilot używa tylko wtyczek, które są włączone przez użytkownika.

Aby uzyskać więcej informacji, zapoznaj się z następującymi artykułami:

W jaki sposób rozwiązanie Microsoft 365 Copilot chroni dane organizacyjne?

Model uprawnień w dzierżawie platformy Microsoft 365 może pomóc w zapewnieniu przypadkowego wycieku danych między użytkownikami, grupami i dzierżawami. Platforma Microsoft 365 Copilot przedstawia tylko dane, do których każda osoba może uzyskać dostęp przy użyciu tych samych podstawowych mechanizmów kontroli dostępu do danych używanych w innych usługach platformy Microsoft 365. Indeks semantyczny uwzględnia granicę dostępu opartą na tożsamości użytkownika, dzięki czemu proces uziemiania uzyskuje dostęp tylko do zawartości, do której bieżący użytkownik ma uprawnienia dostępu. Aby uzyskać więcej informacji, zobacz dokumentację zasad ochrony prywatności i usługi firmy Microsoft.

Jeśli masz dane zaszyfrowane przez usługę Microsoft Purview Information Protection, rozwiązanie Microsoft 365 Copilot przestrzega praw użycia przyznanych użytkownikowi. To szyfrowanie może być stosowane przez etykiety poufności lub przez ograniczone uprawnienia w aplikacjach na platformie Microsoft 365 za pomocą usługi Zarządzanie prawami do informacji (IRM). Aby uzyskać więcej informacji o używaniu usługi Microsoft Purview z funkcją Microsoft 365 Copilot, zobacz artykuł Zabezpieczenia danych i ochrona zgodności usługi Microsoft Purview dla generatywnych aplikacji sztucznej inteligencji.

Wdrożyliśmy już wiele form ochrony, aby pomóc klientom w zabezpieczeniu usług i aplikacji Microsoft 365 lub uniemożliwić uzyskanie nieautoryzowanego dostępu do innych dzierżawców lub samego systemu Microsoft 365. Oto kilka przykładów tych form ochrony:

  • Logiczna izolacja zawartości klienta w ramach każdej dzierżawy usług platformy Microsoft 365 jest osiągana dzięki autoryzacji Microsoft Entra i kontroli dostępu opartej na rolach. Aby uzyskać więcej informacji, zobacz kontrolki izolacji platformy Microsoft 365.

  • Firma Microsoft korzysta z rygorystycznych zabezpieczeń fizycznych, osłon w tle i wielowarstwowej strategii szyfrowania, aby chronić poufność i integralność zawartości klientów.

  • Platforma Microsoft 365 korzysta z technologii po stronie usługi, które szyfrują zawartość przechowywaną i przesyłaną przez klientów, w tym funkcję BitLocker, szyfrowanie poszczególnych plików, protokół Transport Layer Security (TLS) i zabezpieczenia protokołu internetowego (IPsec). Aby uzyskać szczegółowe informacje na temat szyfrowania na platformie Microsoft 365, zobacz Szyfrowanie w chmurze firmy Microsoft.

  • Kontrola nad danymi użytkownika jest wzmacniana przez zobowiązanie firmy Microsoft do zachowania zgodności z szeroko obowiązującymi przepisami dotyczącymi ochrony prywatności, takimi jak RODO, i standardami prywatności, takimi jak ISO/IEC 27018, pierwszy na świecie międzynarodowy kodeks ochrony prywatności w chmurze.

  • W przypadku zawartości dostępnej za pośrednictwem wtyczek funkcji Microsoft 365 Copilot szyfrowanie może wykluczać dostęp programowy, ograniczając w ten sposób dostęp wtyczki do zawartości. Aby uzyskać więcej informacji, zobacz Konfigurowanie praw użytkowania dla usługi Azure Information Protection.

Spełnianie wymagań dotyczących zgodności z przepisami

W miarę rozwoju regulacji w zakresie sztucznej inteligencji firma Microsoft będzie nadal dostosowywać się do przyszłych wymagań prawnych i reagować na nie.

Microsoft 365 Copilot jest oparty na bieżących zobowiązaniach firmy Microsoft w zakresie bezpieczeństwa i prywatności danych w przedsiębiorstwie. Te zobowiązania nie ulegają zmianie. Usługa Microsoft 365 Copilot jest zintegrowana z platformą Microsoft 365 i jest zgodna ze wszystkimi istniejącymi zobowiązaniami dotyczącymi ochrony prywatności, zabezpieczeń i zgodności z przepisami dla klientów komercyjnych platformy Microsoft 365. Aby uzyskać więcej informacji, zobacz Zgodność firmy Microsoft.

Oprócz przestrzegania przepisów, w priorytecie mamy otwarty dialog z naszymi klientami, partnerami i organami prawnymi, aby lepiej zrozumieć i rozwiązać problemy, wspierając w ten sposób środowisko zaufania i współpracy. Zdajemy sobie sprawę, że prywatność, zabezpieczenia i przejrzystość nie są tylko cechami, ale wymaganiami wstępnymi w środowisku opartym na sztucznej inteligencji w firmie Microsoft.

Informacje dodatkowe

Funkcja Microsoft 365 Copilot i mechanizmy kontroli prywatności dla środowisk połączonych

Niektóre mechanizmy kontroli prywatności dla środowisk połączonych w aplikacjach Microsoft 365 mogą wpływać na dostępność funkcji Microsoft 365 Copilot. To obejmuje mechanizmy kontroli prywatności dla środowisk połączonych, które analizują zawartość użytkownika oraz mechanizmy kontroli prywatności dla opcjonalnych środowisk połączonych. Aby uzyskać informacje na temat mechanizmów kontroli prywatności, zobacz sekcję Omówienie mechanizmów kontroli prywatności dla aplikacji Microsoft 365 dla przedsiębiorstw.

Mechanizm kontroli prywatności dla środowisk połączonych analizujących zawartość

Jeśli wyłączysz połączone środowiska analizujące zawartość na urządzeniach w organizacji, funkcje Microsoft 365 Copilot nie będą dostępne dla użytkowników w następujących aplikacjach:

  • Excel
  • OneNote
  • Outlook
  • PowerPoint
  • Word

Dotyczy to sytuacji, gdy używasz najnowszej wersji tych aplikacji na urządzeniach z systemem Windows, Mac, iOS lub Android.

Istnieje również mechanizm kontroli prywatności, który wyłącza wszystkie środowiska połączone, w tym środowiska połączone, które analizują Twoją zawartość. Jeśli używasz tej kontroli prywatności, funkcje Microsoft 365 Copilot nie będą dostępne w aplikacjach i na urządzeniach opisanych powyżej.

Mechanizm kontroli prywatności dla opcjonalnych środowisk połączonych

Jeśli wyłączysz opcjonalne środowiska połączone w organizacji, funkcje Microsoft 365 Copilot, które są opcjonalnymi środowiskami połączonymi, nie będą dostępne dla użytkowników. Na przykład wyłączenie opcjonalnych połączonych środowisk może mieć wpływ na dostępność wyszukiwania w Internecie.

Istnieje również mechanizm kontroli prywatności, który wyłącza wszystkie środowiska połączone, w tym opcjonalne środowiska połączone. Jeśli użyjesz tego mechanizmu kontroli prywatności, funkcje Microsoft 365 Copilot, które są opcjonalnymi środowiskami połączonymi, nie będą dostępne.

Informacje o zawartości tworzonej przez usługę Microsoft 365 Copilot

Odpowiedzi generowane przez generującą sztuczną inteligencję mogą nie być w 100% faktyczne. Mimo że stale ulepszamy odpowiedzi, użytkownicy nadal powinni kierować się własną oceną, przeglądając dane wyjściowe przed wysłaniem ich do innych osób. Możliwości usługi Microsoft 365 Copilot pozwalają na tworzenie przydatnych wersji roboczych i podsumowań, które pomogą osiągnąć Ci więcej, dając jednocześnie możliwość na przejrzenie wygenerowanej przez AI zawartości, zamiast pełnego zautomatyzowania tych zadań.

Stale ulepszamy algorytmy w celu proaktywnego rozwiązywania problemów, takich jak dezinformacja i kłamstwo, blokowanie zawartości, bezpieczeństwo danych i zapobieganie promocji szkodliwej lub dyskryminacyjnej zawartości zgodnie z naszymi zasadami odpowiedzialnej sztucznej inteligencji.

Firma Microsoft nie rości sobie praw własności do wyników usługi. Mimo to nie ustalamy, czy wyniki klienta są chronione prawami autorskimi lub czy można je wymusić względem innych użytkowników. Wynika to z faktu, że generatywne systemy sztucznej inteligencji mogą generować podobne odpowiedzi na podobne polecenia lub zapytania od wielu klientów. W związku z tym wielu klientów może mieć lub rościć sobie prawa do zawartości, która jest taka sama lub w znacznym stopniu podobna.

Jeśli strona trzecia pozwie klienta komercyjnego o naruszenie praw autorskich za korzystanie z usług Copilot firmy Microsoft lub wygenerowane przez nie dane wyjściowe, będziemy bronić klienta i zapłacimy kwotę wszelkich niekorzystnych wyroków lub ugód wynikających z pozwu sądowego, o ile klient korzystał z zabezpieczeń i filtrów zawartości wbudowanych w nasze produkty. Aby uzyskać więcej informacji, zobacz artykuł Firma Microsoft ogłasza nowe zobowiązanie dotyczące praw autorskich w usłudze Copilot dla klientów.

Jak funkcja Copilot blokuje szkodliwą zawartość?

Usługa Azure OpenAI obejmuje system filtrowania zawartości, który współdziała z podstawowymi modelami. Modele filtrowania zawartości dla kategorii Nienawiść i sprawiedliwość, Seksualne, Przemoc i Samookaleczenie zostały specjalnie wytrenowane i przetestowane w różnych językach. Ten system działa poprzez uruchomienie zarówno polecenia wejściowego, jak i odpowiedzi za pomocą modeli klasyfikacji, które zostały zaprojektowane w celu identyfikowania i blokowania danych wyjściowych szkodliwej zawartości.

Szkody związane z nienawiścią i sprawiedliwością odnoszą się do dowolnej zawartości, która używa języka pejoratywnego lub dyskryminującego opartego na atrybutach takich jak rasa, pochodzenie etniczne, narodowość, tożsamość i ekspresja płciowa, orientacja seksualna, religia, status imigracyjny, status zdolności, wygląd osobisty i rozmiar ciała. Sprawiedliwość dotyczy upewnienia się, że systemy sztucznej inteligencji traktują wszystkie grupy ludzi sprawiedliwie, nie przyczyniając się do istniejących nierówności społecznych. Zawartość o charakterze seksualnym obejmuje dyskusje na temat ludzkich narządów rozrodczych, romantycznych związków, aktów przedstawianych w kategoriach erotycznych lub uczuciowych, ciąży, fizycznych aktów seksualnych, w tym tych przedstawianych jako napaść lub wymuszony akt przemocy seksualnej, prostytucji, pornografii i nadużyć. Przemoc opisuje język związany z działaniami fizycznymi, które mają na celu zranienie lub zabicie, w tym działania, broń i powiązane podmioty. Język samookaleczenia odnosi się do celowych działań, które mają na celu zranienie lub zabicie siebie.

Dowiedz się więcej o filtrowaniu zawartości usługi Azure OpenAI.

Czy funkcja Copilot zapewnia wykrywanie materiałów chronionych?

Tak, funkcja Microsoft 365 Copilot zapewnia wykrywanie chronionych materiałów, w tym tekstu objętego prawami autorskimi i kodem podlegającym ograniczeniom licencjonowania. Nie wszystkie te ograniczenia ryzyka są istotne dla wszystkich scenariuszy funkcji Microsoft 365 Copilot.

Czy funkcja Copilot blokuje wstrzykiwanie poleceń (ataki jailbreak)?

Ataki jailbreak to polecenia użytkownika, które mają na celu sprowokowanie generatywnego modelu sztucznej inteligencji do zachowania się w sposób, do którego nie został wytrenowany lub do złamania zasad, których kazano mu przestrzegać. Funkcja Microsoft 365 Copilot została zaprojektowana w celu ochrony przed atakami wstrzykiwania poleceń. Dowiedz się więcej o atakach jailbreak i sposobach ich wykrywania za pomocą usługi Azure AI Content Safety.

Zaangażowanie w odpowiedzialną sztuczną inteligencję

Ponieważ sztuczna inteligencja przekształca nasze życie, musimy wspólnie zdefiniować nowe reguły, normy i praktyki dotyczące użycia i wpływu tej technologii. Od 2017 r. firma Microsoft pracuje nad odpowiedzialną sztuczną inteligencją, gdy zdefiniowaliśmy nasze zasady i podejście, zapewniając, że ta technologia jest używana w sposób oparty na zasadach etycznych, które stawiają ludzi na pierwszym miejscu.

W firmie Microsoft kierujemy się zasadami dotyczącymi sztucznej inteligencji, standardem odpowiedzialnej sztucznej inteligencji i dziesiątkami lat badań nad sztuczną inteligencją, uziemianiem i ochroną prywatności uczenia maszynowego. Multidyscyplinarny zespół badaczy, inżynierów i ekspertów ds. zasad sprawdza nasze systemy sztucznej inteligencji pod kątem potencjalnych szkód i środków zaradczych — udoskonalając dane szkoleniowe, filtrując w celu ograniczenia szkodliwej zawartości, blokując zapytania i wyniki dotyczące tematów poufnych oraz stosując technologie firmy Microsoft, takie jak InterpretML i Fairlearn, aby pomóc wykrywać i poprawiać odchylenia danych. Jasno określamy, w jaki sposób system podejmuje decyzje, odnotowując ograniczenia, łącząc się ze źródłami i monitując użytkowników o przeglądanie, sprawdzanie faktów i dostosowywanie zawartości na podstawie wiedzy w danej dziedzinie. Aby uzyskać więcej informacji, zobacz artykuł Zarządzanie sztuczną inteligencją: strategia na przyszłość.

Naszym celem jest pomoc naszym klientom w odpowiedzialnym korzystaniu z naszych produktów sztucznej inteligencji, udostępnianiu naszych informacji i tworzeniu relacji partnerskich opartych na zaufaniu. W przypadku tych nowych usług chcemy udostępnić naszym klientom informacje o zamierzonych zastosowaniach, możliwościach i ograniczeniach naszej usługi platformy sztucznej inteligencji, aby mieli wiedzę niezbędną do dokonywania wyborów dotyczących odpowiedzialnego wdrażania. Udostępniamy również zasoby i szablony deweloperom w organizacjach oraz niezależnym dostawcom oprogramowania (ISV), aby ułatwić im tworzenie efektywnych, bezpiecznych i przejrzystych rozwiązań AI.