Udostępnij za pośrednictwem


Zagadnienia dotyczące odpowiedzialnej sztucznej inteligencji dla obciążeń aplikacji inteligentnych

Obciążenia aplikacji inteligentnych muszą być zgodne z zasadami odpowiedzialnej sztucznej inteligencji, aby zapewnić uczciwość, rozliczalność, przejrzystość i etyczne zachowanie.

Zaprojektuj system sztucznej inteligencji tak, aby sprawiedliwie traktował wszystkich użytkowników, pociągał programistów i użytkowników do odpowiedzialności za jego działanie, zapewniał przejrzystość operacji AI i przestrzegał standardów etycznych.

W Microsoft firmie jesteśmy zaangażowani w rozwój sztucznej inteligencji w oparciu o zasady, które stawiają ludzi na pierwszym miejscu. Modele generatywne mają znaczące potencjalne korzyści, ale bez starannego projektowania i przemyślanych środków zaradczych takie modele mogą generować nieprawidłowe, a nawet szkodliwe treści. Microsoft poczyniła znaczne inwestycje, aby pomóc chronić przed nadużyciami i niezamierzonymi szkodami, co obejmuje włączenie Microsoft zasad odpowiedzialnego korzystania ze sztucznej inteligencji, przyjęciekodeksu postępowania , tworzenie filtrówtreści w celu wsparcia klientów oraz dostarczanie informacji i wskazówek dotyczących odpowiedzialnej sztucznej inteligencji , które klienci powinni wziąć pod uwagę podczas korzystania z generatywnej sztucznej inteligencji.

Power Platform współpiloci i funkcje generatywnej sztucznej inteligencji są zgodne z zestawem podstawowych praktyk w zakresie bezpieczeństwa i prywatności oraz standardem Microsoft odpowiedzialnejsztucznej inteligencji. Power Platform Dane są chronione przez kompleksowe, wiodące w branży mechanizmy kontroli zgodności, zabezpieczeń i prywatności.

Więcej informacji:

Podstawowe zasady odpowiedzialnej sztucznej inteligencji

Podstawowe zasady odpowiedzialnej sztucznej inteligencji obejmują uczciwość, rozliczalność, przejrzystość i etykę. Zapewnienie, że obciążenie aplikacji inteligentnej utworzone przy użyciu Power Platform tych podstawowych zasad jest zgodne z tymi podstawowymi zasadami, obejmuje kilka kluczowych rozwiązań:

  • Uczciwość: Używaj zróżnicowanych i reprezentatywnych danych treningowych, aby zminimalizować uprzedzenia. Regularnie aktualizuj dane szkoleniowe i zatrudniaj audytorów w celu sprawdzenia uczciwości i równości.
  • Odpowiedzialność: Określ jasne role i obowiązki dla członków zespołu zaangażowanych w projekt AI. Ustal i przestrzegaj standardów etycznych, w których priorytetem jest uczciwość i odpowiedzialność.
  • Przezroczystość: Upewnij się, że użytkownicy wiedzą, że korzystają z obciążenia, które korzysta z możliwości generatywnej sztucznej inteligencji. Jasno komunikuj, dlaczego wybrano rozwiązanie AI, jak zostało zaprojektowane oraz w jaki sposób jest monitorowane i aktualizowane.
  • Etyka: Wspieranie inkluzywnej siły roboczej i szukanie informacji od różnych społeczności na wczesnym etapie procesu rozwoju. Regularnie oceniaj i testuj modele pod kątem problemów etycznych i rozbieżności w wydajności. Ustanowienie ram zarządzania, które obejmują regularne audyty.

Uwzględnij te praktyki w procesach tworzenia i wdrażania, aby utworzyć inteligentne obciążenie aplikacji, które jest zgodne z podstawowymi zasadami odpowiedzialnej sztucznej inteligencji.

Prywatność i bezpieczeństwo danych

Zapewnienie prywatności danych ma kluczowe znaczenie, zwłaszcza że obciążenie inteligentnej aplikacji może obsługiwać poufne dane. Planując obciążenie Power Platform inteligentnej aplikacji, należy uwzględnić kilka kluczowych zagrożeń i wdrożyć skuteczne strategie ograniczania ryzyka:

  • Funkcje platformy: Omówienie natywnych kontrolek i funkcji platformy, które chronią Twoje dane. Microsoft Copilot jest oparty na Microsoft Azure OpenAI Usłudze i działa całkowicie w chmurze platformy Azure. Usługa Copilot używa modeli OpenAI ze wszystkimi możliwościami zabezpieczeń platformy Microsoft Azure. Copilot jest zintegrowany z Microsoft usługami takimi jak Dynamics 365 i Power Platform dziedziczy ich zasady i procesy zabezpieczeń, prywatności i zgodności, takie jak uwierzytelnianie wieloskładnikowe i granice zgodności.
  • Szyfrowanie danych: technologie po stronie usługi szyfrują zawartość organizacyjną spoczynkową i przesyłaną, zapewniając niezawodne zabezpieczenia. Połączenia są zabezpieczone za pomocą protokołu Transport warstwa Security (TLS), a transfery danych między Dynamics 365 Power Platform a platformą Azure OpenAI odbywają się za pośrednictwem sieci szkieletowej Microsoft , co zapewnia zarówno niezawodność, jak i bezpieczeństwo. Dowiedz się więcej o szyfrowaniu w Microsoft chmurze.
  • Kontrola dostępu: Dane są dostarczane do Copilot na podstawie poziomu dostępu bieżącego użytkownika. Zaimplementuj kontrolę dostępu opartą na rolach (RBAC) przy użyciu Microsoft Entra identyfikatora, aby upewnić się, że tylko autoryzowani użytkownicy mogą uzyskiwać dostęp do danych. Zastosuj zasadę najmniejszych uprawnień, aby ograniczyć dostęp tylko do tego, co jest niezbędne.
  • Monitorowanie i audyt: Wykrywaj potencjalne incydenty związane z bezpieczeństwem i reaguj na nie, regularnie monitorując dostęp do systemu sztucznej inteligencji i jego wykorzystanie. Utrzymuj szczegółowe dzienniki inspekcji, aby śledzić dostęp do danych i modyfikacje.
  • Zgodność z przepisami i ład korporacyjny: Zapewnij zgodność z odpowiednimi przepisami dotyczącymi prywatności danych, takimi jak RODO (Ogólne rozporządzenie o ochronie danych), HIPAA (ustawa o przenośności i odpowiedzialności w ubezpieczeniach zdrowotnych) oraz CCPA (kalifornijska ustawa o ochronie prywatności konsumentów). Wdrażaj etyczne praktyki w zakresie sztucznej inteligencji, aby uniknąć uprzedzeń i zapewnić uczciwość wyników sztucznej inteligencji.
  • Edukacja użytkowników i deszcz: Szkolenie użytkowników w zakresie najlepszych praktyk w zakresie bezpieczeństwa i znaczenia prywatności danych. Informuj użytkowników o aktualizacjach i zmianach w zasadach i procedurach bezpieczeństwa.

Dowiedz się więcej: Często zadawane pytania dotyczące zabezpieczeń i prywatności danych Copilot dla Dynamics 365 i Power Platform

Świadomość i łagodzenie uprzedzeń

Uznaj znaczenie eliminowania uprzedzeń w systemie i zapewnij uczciwość, aby uniknąć uprzedzeń w odpowiedziach AI.

  • Zróżnicowane i reprezentatywne dane: Upewnij się, że dane treningowe są zróżnicowane i reprezentatywne dla różnych grup demograficznych, aby zminimalizować nieodłączne uprzedzenia. Regularnie sprawdzaj dane pod kątem uprzedzeń i nierównowagi oraz w razie potrzeby podejmuj działania naprawcze.
  • Narzędzia do wykrywania i ograniczania uprzedzeń: używaj narzędzi i technik do wykrywania uprzedzeń w modelach sztucznej inteligencji, takich jak analiza statystyczna i metryki uczciwości. Zaimplementuj techniki usuwania uprzedzeń, w tym ponowne próbkowanie, ponowne ważenie lub przeciwstawne uprzedzanie, aby zmniejszyć odchylenia w modelach.
  • Human-in-the-loop: Uwzględnij pętle oceny przez człowieka i informacje zwrotne, aby zidentyfikować i skorygować uprzedzenia, które może wprowadzić sztuczna inteligencja. Ustanowienie komisji etycznej lub rady zarządzającej, która będzie nadzorować rozwój i wdrażanie sztucznej inteligencji, zapewniając spełnienie standardów etycznych.
  • Przejrzystość i zaufanie: Upewnij się, że użytkownicy wiedzą, że korzystają z obciążenia, które korzysta z możliwości generatywnej sztucznej inteligencji. Jasno komunikuj, dlaczego wybrano rozwiązanie oparte na sztucznej inteligencji, i podaj informacje o tym, jak zostało zaprojektowane oraz jak jest monitorowane i aktualizowane.
  • Ciągłe monitorowanie i doskonalenie: Stale monitoruj system sztucznej inteligencji pod kątem uprzedzeń i problemów z wydajnością oraz aktualizuj modele w razie potrzeby. Upewnij się, że modele pozostają uczciwe i bezstronne, regularnie trenując modele przy użyciu zaktualizowanych i bardziej zróżnicowanych danych.

Bieżące monitorowanie i ocena

Kontynuuj ulepszanie obciążenia aplikacji inteligentnych. Ustanowienie ram dla ciągłego monitorowania i oceny oraz uwzględnianie opinii użytkowników i zmieniających się standardów etycznych w aktualizacjach.

  • Pętle informacji zwrotnych: Ustanów mechanizmy informacji zwrotnej, w których użytkownicy mogą zgłaszać nieścisłości, które można następnie wykorzystać do udoskonalenia i ulepszenia modeli.
  • Monitorowanie i audyt: Wykrywaj potencjalne incydenty związane z bezpieczeństwem i reaguj na nie, regularnie monitorując dostęp do systemu sztucznej inteligencji i jego wykorzystanie. Utrzymuj szczegółowe dzienniki inspekcji, aby śledzić dostęp do danych i modyfikacje.