Zagadnienia dotyczące odpowiedzialnej sztucznej inteligencji w odniesieniu do inteligentnych obciążeń aplikacji
Obciążenia aplikacji inteligentnych muszą być zgodne z zasadami odpowiedzialnej sztucznej inteligencji, aby zapewnić uczciwość, odpowiedzialność, przejrzystość i etyczne zachowanie.
Zaprojektuj system sztucznej inteligencji tak, aby sprawiedliwie traktował wszystkich użytkowników, rozliczał programistów i użytkowników z jego wydajności, zapewniał przejrzystość operacji AI i przestrzegał standardów etycznych.
W Microsoft jesteśmy zaangażowani w rozwój sztucznej inteligencji w oparciu o zasady, które stawiają ludzi na pierwszym miejscu. Modele generatywne mają znaczące potencjalne korzyści, ale bez starannego projektowania i przemyślanych środków zaradczych takie modele mogą potencjalnie generować nieprawidłową, a nawet szkodliwą zawartość. Microsoft poczynił znaczne inwestycje, aby pomóc chronić się przed nadużyciami i niezamierzonymi szkodami, co obejmuje włączenie zasad Microsoft dotyczących korzystania z odpowiedzialnej sztucznej inteligencji, przyjęcie kodeksu postępowania, tworzenie filtrów treści w celu wsparcia klientów oraz dostarczanie informacji i wskazówek dotyczących odpowiedzialnej sztucznej inteligencji, które klienci powinni wziąć pod uwagę podczas korzystania z generatywnej AI.
Pomocnicy Power Platform i funkcje generatywnej AI działają zgodnie z zestawem podstawowych praktyk z zakresu bezpieczeństwa i prywatności oraz Standardem Microsoft dotyczącym odpowiedzialnej sztucznej inteligencji. Dane Power Platform są chronione przez kompleksowe, wiodące w branży mechanizmy kontroli zgodności, bezpieczeństwa i prywatności.
Więcej informacji:
- Zasady dotyczące Microsoft AI
- Zasoby odpowiedzialnej sztucznej inteligencji Microsoft
- Kursy szkoleniowe Microsoft Azure dotyczące odpowiedzialnej sztucznej inteligencji
- Często zadawane pytania dotyczące odpowiedzialnego AI dla Copilot Studio
- Omówienie praktyk odpowiedzialnej sztucznej inteligencji dla modeli platformy Azure OpenAI
Podstawowe zasady odpowiedzialnej sztucznej inteligencji
Podstawowe zasady odpowiedzialnej sztucznej inteligencji obejmują uczciwość, odpowiedzialność, przejrzystość i etykę. Zapewnienie, że obciążenie aplikacji inteligentnych utworzone przy użyciu Power Platform jest zgodne z tymi podstawowymi zasadami, obejmuje kilka kluczowych rozwiązań:
- Uczciwość: używaj zróżnicowanych i reprezentatywnych danych szkoleniowych, aby zminimalizować uprzedzenia. Regularnie aktualizuj dane szkoleniowe i zatrudniaj audytorów w celu weryfikacji uczciwości i równości.
- Odpowiedzialność: zdefiniuj jasne role i obowiązki dla członków zespołu zaangażowanych w projekt AI. Ustal i przestrzegaj standardów etycznych, w których priorytetem jest uczciwość i odpowiedzialność.
- Przejrzystość: upewnij się, że użytkownicy wiedzą, że korzystają z obciążenia używającego możliwości generatywnej AI. Jasno komunikuj, dlaczego wybrano rozwiązanie AI, jak zostało zaprojektowane oraz jak jest monitorowane i aktualizowane.
- Etyka: wspieranie inkluzywnej siły roboczej i pobieranie opinii z różnych społeczności na wczesnym etapie procesu rozwoju. Regularnie oceniaj i testuj modele pod kątem problemów etycznych i rozbieżności w wydajności. Ustal ramy zarządzania, które obejmują regularne audyty.
Uwzględnij te rozwiązania w procesach programowania i wdrażania, aby utworzyć inteligentne obciążenie aplikacji, które jest zgodne z podstawowymi zasadami odpowiedzialnej sztucznej inteligencji.
Prywatność i bezpieczeństwo danych
Zapewnienie prywatności danych ma kluczowe znaczenie, zwłaszcza że obciążenie inteligentnej aplikacji może obsługiwać poufne dane. Planując obciążenie aplikacji inteligentnych w Power Platform, należy uwzględnić kilka kluczowych zagrożeń i wdrożyć skuteczne strategie ograniczania ryzyka:
- Funkcje platformy: zapoznaj się z natywnymi kontrolkami i funkcjami platformy, które chronią Twoje dane. Microsoft Copilot opiera się na usłudze Microsoft Azure OpenAI Service i działa wyłącznie w chmurze platformy Azure. Usługa Copilot używa modeli OpenAI ze wszystkimi możliwościami zabezpieczeń platformy Microsoft Azure. Usługa Copilot jest zintegrowana z usługami Microsoft, takimi jak Dynamics 365 i Power Platform, dzięki czemu dziedziczy ich zasady i procesy zabezpieczeń, prywatności i zgodności, takie jak uwierzytelnienie wieloskładnikowe i granice zgodności.
- Szyfrowanie danych: technologie po stronie usługi szyfrują przechowywaną i przenoszoną zawartość organizacji w celu zapewnienia niezawodnej ochrony. Połączenia są zabezpieczone przy użyciu zabezpieczeń TLS (Transport Layer Security), a przenoszenie danych między usługami Dynamics 365 Power Platform i Azure OpenAI ma miejsce w sieci podstawowej Microsoft, co zapewnia zarówno rzetelność, jak i bezpieczeństwo. Dowiedz się więcej o szyfrowaniu w chmurze Microsoft Cloud.
- Mechanizmy kontroli dostępu: dane przekazywane do rozwiązania Copilot (lub agenta niestandardowego) są udostępniane wyłącznie na podstawie poziomu dostępu bieżącego użytkownika. Zaimplementuj kontrolę dostępu na podstawie ról (RBAC) przy użyciu Microsoft Entra ID, aby upewnić się, że tylko autoryzowani użytkownicy mogą uzyskać dostęp do danych. Zastosuj zasadę najmniejszych uprawnień, aby ograniczyć dostęp tylko do tego, co jest niezbędne.
- Monitorowanie i inspekcja: wykrywaj potencjalne zdarzenia związane z bezpieczeństwem i reaguj na nie, regularnie monitorując dostęp do systemu AI i jego użycie. Utrzymuj szczegółowe dzienniki inspekcji, aby śledzić dostęp do danych i ich modyfikacje.
- Zgodność i ład: zapewnij zgodność z odpowiednimi przepisami dotyczącymi prywatności danych, takimi jak RODO (Ogólne rozporządzenie o ochronie danych), HIPAA (Health Insurance Portability and Accountability Act) i CCPA (California Consumer Privacy Act). Wdrażaj etyczne praktyki w zakresie sztucznej inteligencji, aby uniknąć uprzedzeń i zapewnić uczciwość wyników AI.
- Edukacja i szkolenie użytkowników: przeprowadź szkolenia dla użytkowników w zakresie najlepszych rozwiązań w zakresie bezpieczeństwa i znaczenia prywatności danych. Informuj użytkowników o aktualizacjach i zmianach w zasadach i procedurach bezpieczeństwa.
Dowiedz się więcej: Często zadawane pytania dotyczące bezpieczeństwa i prywatności danych narzędzia Copilot w rozwiązaniach Dynamics 365 i Power Platform
Świadomość i łagodzenie uprzedzeń
Uznaj, jak ważne jest eliminowanie uprzedzeń w systemie i zapewnij uczciwość, aby uniknąć uprzedzeń w odpowiedziach AI.
- Zróżnicowane i reprezentatywne dane: upewnij się, że dane szkoleniowe są zróżnicowane i reprezentatywne dla różnych grup demograficznych, aby zminimalizować wrodzone uprzedzenia. Regularnie sprawdzaj dane pod kątem uprzedzeń i nierównowagi, a w razie potrzeby podejmuj działania naprawcze.
- Narzędzia do wykrywania i ograniczania uprzedzeń: użyj narzędzi i technik do wykrywania uprzedzeń w modelach AI, takich jak analiza statystyczna i metryki uczciwości. Zaimplementuj techniki usuwania odchyleń, w tym ponowne próbkowanie, ponowne ważenie lub przeciwstawne usuwanie odchyleń, aby zmniejszyć odchylenia w modelach.
- Człowiek w pętli: uwzględnij pętle przeglądu przez ludzi i uzyskiwania ich opinii, aby zidentyfikować i skorygować uprzedzenia, które może wprowadzić AI. W celu nadzorowania rozwoju i wdrażania AI oraz zapewnienia zgodności ze standardami etycznymi, powołaj komisję ds. etyki lub radę nadzorczą.
- Przejrzystość i zaufanie: upewnij się, że użytkownicy wiedzą, że korzystają z obciążenia używającego możliwości generatywnej AI. Jasno komunikuj, dlaczego wybrano rozwiązanie AI, i podaj informacje o tym, jak zostało zaprojektowane oraz jak jest monitorowane i aktualizowane.
- Ciągłe monitorowanie i doskonalenie: stale monitoruj system AI pod kątem uprzedzeń i problemów z wydajnością oraz aktualizuj modele w razie potrzeby. Upewnij się, że modele pozostają uczciwe i bezstronne, regularnie trenując modele przy użyciu zaktualizowanych i bardziej zróżnicowanych danych.
Bieżące monitorowanie i ocena
Kontynuuj ulepszanie obciążenia aplikacji inteligentnych. Ustanów strukturę dla ciągłego monitorowania i oceny oraz uwzględnij opinie użytkowników i zmieniające się standardy etyczne w aktualizacjach.
- Pętle opinii: ustanów mechanizmy opinii, w których użytkownicy mogą zgłaszać nieścisłości, które można następnie wykorzystać do udoskonalenia i ulepszenia modeli.
- Monitorowanie i inspekcja: wykrywaj potencjalne zdarzenia związane z bezpieczeństwem i reaguj na nie, regularnie monitorując dostęp do systemu AI i jego użycie. Utrzymuj szczegółowe dzienniki inspekcji, aby śledzić dostęp do danych i ich modyfikacje.