Udostępnij za pośrednictwem


Odpowiedzialne używanie sztucznej inteligencji w obciążeniach platformy Azure

Celem projektowania odpowiedzialnej sztucznej inteligencji w obciążeniu jest zapewnienie, że użycie algorytmów sztucznej inteligencji jest sprawiedliwe, przejrzyste i inkluzywne. Dobrze zaprojektowane zasady zabezpieczeń są powiązane z naciskiem na poufność i integralność. Środki bezpieczeństwa muszą być spełnione, aby zachować prywatność użytkowników, chronić dane i chronić integralność projektu, co nie powinno być nadużywane w niezamierzonych celach.

W przypadku obciążeń sztucznej inteligencji decyzje są podejmowane przez modele, które często używają nieprzezroczystej logiki. Użytkownicy powinni ufać funkcjonalności systemu i mieć pewność, że decyzje są podejmowane odpowiedzialnie. Należy unikać nieetycznych zachowań, takich jak manipulacja, toksyczność zawartości, naruszenie adresów IP i skonstruowane reakcje.

Rozważmy przypadek użycia, w którym firma zajmująca się rozrywką medialną chce udostępnić rekomendacje przy użyciu modeli sztucznej inteligencji. Brak implementacji odpowiedzialnej sztucznej inteligencji i odpowiednich zabezpieczeń może prowadzić do przejęcia kontroli nad modelami przez złego aktora. Model może potencjalnie zalecić zawartość multimedialną, która może prowadzić do szkodliwych wyników. W przypadku organizacji takie zachowanie może prowadzić do uszkodzenia marki, niebezpiecznych środowisk i problemów prawnych. W związku z tym utrzymanie etycznej czujności w całym cyklu życia systemu jest niezbędne i nie można negocjować.

Decyzje etyczne powinny określać priorytety zarządzania zabezpieczeniami i obciążeniami, mając na uwadze wyniki ludzkie. Zapoznaj się ze strukturą odpowiedzialnej sztucznej inteligencji firmy Microsoft i upewnij się, że zasady są odzwierciedlane i mierzone w projekcie. Na tej ilustracji przedstawiono podstawowe pojęcia dotyczące platformy.

Diagram przedstawiający strukturę odpowiedzialnej sztucznej inteligencji firmy Microsoft.

Ważne

Dokładność prognozowania i metryk odpowiedzialnej sztucznej inteligencji jest często połączona. Zwiększenie dokładności modelu może zwiększyć jego uczciwość i dopasowanie do rzeczywistości. Jednak chociaż etyczna sztuczna inteligencja często jest zgodna z dokładnością, sama dokładność nie obejmuje wszystkich zagadnień etycznych. Ważne jest, aby odpowiedzialnie zweryfikować te zasady etyczne.

Ten artykuł zawiera zalecenia dotyczące etycznego podejmowania decyzji, weryfikowania danych wejściowych użytkownika oraz zapewniania bezpiecznego środowiska użytkownika. Zawiera również wskazówki dotyczące zabezpieczeń danych, aby upewnić się, że dane użytkownika są chronione.

Zalecenia

Poniżej przedstawiono podsumowanie zaleceń przedstawionych w tym artykule.

Zalecenie opis
Opracowywanie zasad wymuszających praktyki etyczne na każdym etapie cyklu życia. Uwzględnij elementy listy kontrolnej, które jawnie podają wymagania etyczne dostosowane do kontekstu obciążenia. Przykłady obejmują przejrzystość danych użytkownika, konfigurację zgody i procedury obsługi "Prawo do zapomnienia".

Opracowywanie zasad odpowiedzialnej sztucznej inteligencji
Wymuszanie ładu w zasadach odpowiedzialnej sztucznej inteligencji
Ochrona danych użytkowników za pomocą celu zmaksymalizowania prywatności. Zbierz tylko to, co jest niezbędne i z odpowiednią zgodą użytkownika. Zastosuj mechanizmy kontroli technicznej, aby chronić profile użytkowników, ich dane i dostęp do tych danych.

Obsługa danych użytkowników w sposób etyczny
Inspekcja danych przychodzących i wychodzących
Podejmowanie decyzji dotyczących sztucznej inteligencji jest jasne i zrozumiałe. Zachowaj jasne wyjaśnienia dotyczące działania algorytmów rekomendacji i oferują użytkownikom wgląd w użycie danych i algorytmiczne podejmowanie decyzji, aby upewnić się, że rozumieją i ufają procesowi.

Zabezpieczanie środowiska użytkownika

Opracowywanie zasad odpowiedzialnej sztucznej inteligencji

Udokumentuj podejście do etycznego i odpowiedzialnego użycia sztucznej inteligencji. Jawnie zasady stanu stosowane na każdym etapie cyklu życia, dzięki czemu zespół ds. obciążeń rozumie swoje obowiązki. Chociaż standardy odpowiedzialnej sztucznej inteligencji firmy Microsoft zawierają wytyczne, musisz zdefiniować, co oznaczają one specjalnie dla danego kontekstu.

Na przykład zasady powinny zawierać elementy listy kontrolnej dla mechanizmów dotyczących przejrzystości danych użytkownika i konfiguracji zgody, co najlepiej umożliwia użytkownikom rezygnację z dołączania danych. Potoki danych, analiza, trenowanie modelu i inne etapy muszą uwzględniać ten wybór. Innym przykładem są procedury obsługi "Prawo do zapomnienia". Skontaktuj się z działem etyki organizacji i zespołem prawnym, aby podejmować świadome decyzje.

Tworzenie przejrzystych zasad dotyczących użycia danych i algorytmicznego podejmowania decyzji, aby zapewnić użytkownikom zrozumienie i zaufanie do procesu. Udokumentowanie tych decyzji w celu utrzymania jasnej historii potencjalnego przyszłego postępowania sądowego.

Implementowanie etycznej sztucznej inteligencji obejmuje trzy kluczowe role: zespół badawczy, zespół ds. zasad i zespół inżynieryjny. Współpraca między tymi zespołami powinna być zoperacjonalizowana. Jeśli Twoja organizacja ma istniejący zespół, skorzystaj z ich pracy; w przeciwnym razie ustanów te praktyki samodzielnie.

Należy uwzględnić rozdzielenie obowiązków:

  • Zespół badawczy przeprowadza odnajdywanie ryzyka, konsultując wytyczne organizacyjne, standardy branżowe, przepisy, przepisy i znaną czerwoną taktykę zespołu.

  • Zespół ds. zasad opracowuje zasady specyficzne dla obciążenia, uwzględniając wytyczne od organizacji nadrzędnej i przepisów rządowych.

  • Zespół inżynierów implementuje zasady w swoich procesach i elementach dostarczanych, zapewniając ich walidację i testowanie pod kątem zgodności.

Każdy zespół sformalizuje swoje wytyczne, ale zespół ds. obciążeń musi być odpowiedzialny za własne udokumentowane praktyki. Zespół powinien wyraźnie udokumentować wszelkie dodatkowe kroki lub zamierzone odchylenia, upewniając się, że nie ma wątpliwości co do tego, co jest dozwolone. Ponadto bądź przejrzysty w przypadku wszelkich potencjalnych niedociągnięć lub nieoczekiwanych wyników w rozwiązaniu.

Wymuszanie ładu w zasadach odpowiedzialnej sztucznej inteligencji

Zaprojektuj obciążenie tak, aby było zgodne z ładem organizacyjnym i regulacyjnym. Jeśli na przykład przejrzystość jest wymaganiem organizacyjnym, określ, jak ma to zastosowanie do obciążenia. Zidentyfikuj obszary w projekcie, cyklu życia, kodzie lub innych składnikach, w których należy wprowadzić funkcje przezroczystości w celu spełnienia tego standardu.

Zapoznaj się z wymaganymi mandatami dotyczącymi ładu, odpowiedzialności, przeglądu i raportowania. Upewnij się, że projekty obciążeń zostały zatwierdzone i podpisane przez radę ds. ładu, aby uniknąć przeprojektowania i ograniczenia problemów etycznych lub związanych z ochroną prywatności. Może być konieczne przejście przez wiele warstw zatwierdzenia. Oto typowa struktura ładu.

Diagram przedstawiający typową strukturę ładu w organizacji.

Aby uzyskać informacje o zasadach organizacyjnych i osobach zatwierdzających, zobacz Cloud Adoption Framework: Definiowanie strategii odpowiedzialnej sztucznej inteligencji.

Zabezpieczanie środowiska użytkownika

Środowiska użytkownika powinny być oparte na wytycznych branżowych. Skorzystaj z biblioteki projektowania środowisk sztucznej inteligencji firmy Microsoft, która zawiera zasady i zapewnia implementację oraz nie, z przykładami produktów firmy Microsoft i innych źródeł branżowych.

Istnieją obowiązki związane z obciążeniem w całym cyklu życia interakcji użytkownika, począwszy od intencji użytkownika do korzystania z systemu, podczas sesji i zakłóceń spowodowanych błędami systemu. Oto kilka rozwiązań, które należy wziąć pod uwagę:

  • Budować przejrzystość. Uświadom użytkownikom, jak system wygenerował odpowiedź na zapytanie.

    Dołącz linki do źródeł danych konsultowanych przez model dla przewidywań, aby zwiększyć pewność użytkownika, pokazując źródła informacji. Projekt danych powinien zapewnić, że te źródła są uwzględnione w metadanych. Gdy koordynator w rozszerzonej aplikacji pobierającej wykonuje wyszukiwanie, pobiera na przykład 20 fragmentów dokumentów i wysyła 10 pierwszych fragmentów, należących do trzech różnych dokumentów jako kontekstu. Interfejs użytkownika może następnie odwoływać się do tych trzech dokumentów źródłowych podczas wyświetlania odpowiedzi modelu, zwiększając przejrzystość i zaufanie użytkowników.

    Przejrzystość staje się ważniejsza w przypadku korzystania z agentów, które pełnią rolę pośredników między interfejsami frontonu i systemami zaplecza. Na przykład w systemie obsługi biletów kod orkiestracji interpretuje intencję użytkownika i wykonuje wywołania interfejsu API do agentów w celu pobrania niezbędnych informacji. Uwidacznianie tych interakcji może uświadomić użytkownikowi działania systemu.

    W przypadku zautomatyzowanych przepływów pracy z wieloma zaangażowanymi agentami utwórz pliki dziennika, które rejestrują każdy krok. Ta funkcja ułatwia identyfikowanie i poprawianie błędów. Ponadto może zapewnić użytkownikom wyjaśnienia dotyczące decyzji, które operacjonalizuje przejrzystość.

    Uwaga

    Podczas implementowania zaleceń dotyczących przejrzystości należy unikać przeciążania użytkownika zbyt dużą ilością informacji. Użyj stopniowego podejścia, w którym zaczynasz od metod interfejsu użytkownika, które mają minimalny wpływ na zakłócenia.

    Na przykład wyświetl etykietkę narzędzia z współczynnikiem ufności z modelu. Możesz dołączyć link, który użytkownicy mogą kliknąć, aby uzyskać więcej szczegółów, takich jak linki do dokumentów źródłowych. Ta metoda zainicjowana przez użytkownika zachowuje interfejs użytkownika bez zakłócania działania i umożliwia użytkownikom wyszukiwanie dodatkowych informacji tylko wtedy, gdy zdecydują się na.

  • Zbieraj opinie. Implementowanie mechanizmów przesyłania opinii.

    Unikaj przytłaczających użytkowników z rozbudowanymi kwestionariuszami po każdej odpowiedzi. Zamiast tego należy używać prostych, szybkich mechanizmów przesyłania opinii, takich jak kciuki w górę/w dół, lub systemy klasyfikacji dla określonych aspektów odpowiedzi w skali od 1 do 5. Ta metoda umożliwia uzyskanie szczegółowych informacji zwrotnych bez natrętnego działania, pomagając ulepszyć system w czasie. Należy pamiętać o potencjalnych uprzedzeniach w opiniach, ponieważ mogą istnieć pomocnicze przyczyny odpowiedzi użytkowników.

    Implementowanie mechanizmu przesyłania opinii wpływa na architekturę ze względu na potrzebę przechowywania danych. Traktuj je jako dane użytkownika i zastosuj poziomy kontroli prywatności zgodnie z potrzebami.

    Oprócz opinii zwrotnej zbieraj opinie na temat skuteczności środowiska użytkownika. Można to zrobić, zbierając metryki zakontraktowania za pośrednictwem stosu monitorowania systemu.

Operacjonalizacja środków bezpieczeństwa zawartości

Integrowanie bezpieczeństwa zawartości z każdym etapem cyklu życia sztucznej inteligencji przy użyciu niestandardowego kodu rozwiązania, odpowiednich narzędzi i skutecznych praktyk zabezpieczeń. Oto kilka strategii.

  • Anonimizacja danych. W miarę jak dane przechodzą od pozyskiwania do trenowania lub oceny, przeprowadzają kontrole w celu zminimalizowania ryzyka wycieku danych osobowych i uniknięcia ujawnienia nieprzetworzonych danych użytkownika.

  • Con tryb namiotu ration. Użyj interfejsu API bezpieczeństwa zawartości, który ocenia żądania i odpowiedzi w czasie rzeczywistym, i upewnij się, że te interfejsy API są osiągalne.

  • Identyfikowanie i eliminowanie zagrożeń. Zastosuj dobrze znane rozwiązania w zakresie zabezpieczeń do scenariuszy sztucznej inteligencji. Na przykład należy przeprowadzić modelowanie zagrożeń i udokumentować zagrożenia oraz ich środki zaradcze. Typowe praktyki w zakresie zabezpieczeń, takie jak ćwiczenia red team, mają zastosowanie do obciążeń sztucznej inteligencji. Czerwone zespoły mogą testować, czy modele mogą być manipulowane w celu generowania szkodliwej zawartości. Te działania powinny być zintegrowane z operacjami sztucznej inteligencji.

    Aby uzyskać informacje na temat przeprowadzania czerwonego testowania zespołu, zobacz Planowanie czerwonego tworzenia zespołu dla dużych modeli językowych (LLMs) i ich aplikacji.

  • Użyj odpowiednich metryk. Użyj odpowiednich metryk, które są skuteczne w mierzeniu etycznego zachowania modelu. Metryki różnią się w zależności od typu modelu AI. Pomiar modeli generowania może nie mieć zastosowania do modeli regresji. Rozważ model, który przewiduje oczekiwaną długość życia i wyniki wpływają na stawki ubezpieczeniowe. Stronniczość w tym modelu może prowadzić do problemów etycznych, ale ten problem wynika z odchylenia w testach metryk podstawowych. Poprawa dokładności może zmniejszyć problemy etyczne, ponieważ metryki etyczne i dokładności są często połączone.

  • Dodaj instrumentację etyczną. Wyniki modelu sztucznej inteligencji muszą być wyjaśnialne. Należy uzasadnić i śledzić sposób wnioskowania, w tym dane używane do trenowania, obliczane funkcje i dane uziemienia. W dyskryminacyjnej sztucznej inteligencji możesz uzasadnić decyzje krok po kroku. Jednak w przypadku modeli generujących wyniki mogą być złożone. Udokumentowanie procesu podejmowania decyzji w celu rozwiązania potencjalnych skutków prawnych i zapewnienia przejrzystości.

    Ten aspekt objaśnienia należy zaimplementować w całym cyklu życia sztucznej inteligencji. Czyszczenie, pochodzenie danych, kryteria wyboru i przetwarzanie to kluczowe etapy, w których należy śledzić decyzje.

Narzędzia

Należy zintegrować narzędzia do zabezpieczania zawartości i śledzenia danych, takich jak Microsoft Purview. Interfejsy API bezpieczeństwa zawartości usługi Azure AI można wywoływać z poziomu testowania w celu ułatwienia testowania zawartości.

Usługa Azure AI Studio udostępnia metryki, które oceniają zachowanie modelu. Aby uzyskać więcej informacji, zobacz Metryki oceny i monitorowania dla generowania sztucznej inteligencji.

W przypadku modeli szkoleniowych zalecamy przejrzenie metryk udostępnianych przez usługę Azure Machine Learning.

Inspekcja danych przychodzących i wychodzących

Ataki polegających na wstrzyknięciu monitów, takich jak jailbreaking, są typowym problemem dla obciążeń sztucznej inteligencji. W takim przypadku niektórzy użytkownicy mogą próbować użyć modelu w niezamierzonych celach. Aby zapewnić bezpieczeństwo, sprawdź dane, aby zapobiec atakom i odfiltrować nieodpowiednią zawartość. Ta analiza powinna być stosowana zarówno do danych wejściowych użytkownika, jak i odpowiedzi systemu w celu upewnienia się, że w przepływach przychodzących i wychodzących istnieje dokładna analiza tryb namiotu ration.

W scenariuszach, w których wykonujesz wiele wywołań modelu, takich jak za pośrednictwem usługi Azure OpenAI, w celu obsługi pojedynczego żądania klienta, zastosowanie kontroli bezpieczeństwa zawartości do każdej wywołania może być kosztowne i niepotrzebne. Rozważ scentralizowanie pracy w architekturze przy jednoczesnym zachowaniu zabezpieczeń jako odpowiedzialności po stronie serwera. Załóżmy, że architektura ma bramę przed punktem końcowym wnioskowania modelu, aby odciążyć niektóre możliwości zaplecza. Brama ta może być zaprojektowana pod kątem obsługi kontroli bezpieczeństwa zawartości zarówno dla żądań, jak i odpowiedzi, których zaplecze może nie obsługiwać natywnie. Chociaż brama jest typowym rozwiązaniem, warstwa aranżacji może efektywnie obsługiwać te zadania w prostszych architekturach. W obu przypadkach można selektywnie zastosować te kontrole w razie potrzeby, optymalizując wydajność i koszty.

Inspekcje powinny być wielomodalne, obejmujące różne formaty. W przypadku korzystania z danych wejściowych wielomodalnych, takich jak obrazy, ważne jest, aby analizować je pod kątem ukrytych komunikatów, które mogą być szkodliwe lub brutalne. Te komunikaty mogą nie być natychmiast widoczne, podobne do niewidocznego atramentu i wymagają starannej kontroli. W tym celu użyj narzędzi takich jak interfejsy API bezpieczeństwa zawartości.

Aby wymusić zasady ochrony prywatności i zabezpieczeń danych, sprawdź dane użytkowników i uziemienie danych pod kątem zgodności z przepisami dotyczącymi prywatności. Upewnij się, że dane są czyszczone lub filtrowane, gdy przepływa przez system. Na przykład dane z poprzednich rozmów pomocy technicznej klienta mogą służyć jako dane uziemienia. Przed ponownym użyciem należy go odczyszać.

Obsługa danych użytkowników w sposób etyczny

Praktyki etyczne obejmują staranne zarządzanie danymi użytkowników. Obejmuje to poznanie, kiedy należy używać danych i kiedy unikać polegania na danych użytkownika.

  • Wnioskowanie bez udostępniania danych użytkownika. Aby bezpiecznie udostępniać dane użytkowników innym organizacjom w celu uzyskania szczegółowych informacji, użyj modelu rozliczeń. W tym scenariuszu organizacje dostarczają dane zaufanej firmie trzeciej, która trenuje model przy użyciu zagregowanych danych. Ten model może być następnie używany przez wszystkie instytucje, umożliwiając udostępnianie szczegółowych informacji bez uwidaczniania poszczególnych zestawów danych. Celem jest użycie możliwości wnioskowania modelu bez udostępniania szczegółowych danych szkoleniowych.

  • Promowanie różnorodności i niekluzywności. Gdy dane użytkownika są niezbędne, użyj zróżnicowanego zakresu danych, w tym niedostatecznie reprezentowanych gatunków i twórców, aby zminimalizować stronniczość. Zaimplementuj funkcje, które zachęcają użytkowników do eksplorowania nowej i zróżnicowanej zawartości. Ciągłe monitorowanie użycia i dostosowywanie zaleceń, aby uniknąć nadmiernego reprezentowania dowolnego pojedynczego typu zawartości.

  • Szanuj "Prawo do zapomnienia". Unikaj używania danych użytkownika, jeśli jest to możliwe. Zapewnij zgodność z "Prawo do zapomnienia", stosując niezbędne środki, aby upewnić się, że dane użytkownika są usuwane pilnie.

    Aby zapewnić zgodność, mogą istnieć żądania usunięcia danych użytkownika z systemu. W przypadku mniejszych modeli można to osiągnąć przez ponowne trenowanie przy użyciu danych wykluczających dane osobowe. W przypadku większych modeli, które mogą składać się z kilku mniejszych, niezależnie wytrenowanych modeli, proces jest bardziej złożony, a koszt i nakład pracy jest znaczący. Poszukaj wskazówek prawnych i etycznych dotyczących obsługi tych sytuacji i upewnij się, że są one uwzględnione w zasadach odpowiedzialnej sztucznej inteligencji, opisanych w temacie Opracowywanie zasad odpowiedzialnej sztucznej inteligencji.

  • Zachowanie w sposób odpowiedzialny. Gdy usunięcie danych nie jest możliwe, uzyskaj jawną zgodę użytkownika na zbieranie danych i podaj jasne zasady ochrony prywatności. Zbieranie i przechowywanie danych tylko wtedy, gdy jest to absolutnie konieczne. Operacje są wykonywane w celu agresywnego usuwania danych, gdy nie są już potrzebne. Na przykład wyczyść historię czatów tak szybko, jak to jest praktyczne, i anonimizuj poufne dane przed przechowywaniem. Upewnij się, że dla tych danych magazynowanych są używane zaawansowane metody szyfrowania.

  • Obsługa objaśnienia. Decyzje dotyczące śledzenia w systemie w celu obsługi wymagań dotyczących możliwości wyjaśnienia. Opracuj jasne wyjaśnienia sposobu działania algorytmów rekomendacji, oferując użytkownikom wgląd w to, dlaczego jest im zalecana konkretna zawartość. Celem jest zapewnienie, że obciążenia sztucznej inteligencji i ich wyniki są przejrzyste i uzasadnione, szczegółowo opisując sposób podejmowania decyzji, jakie dane zostały użyte i jak zostały wytrenowane modele.

  • Szyfrowanie danych użytkownika. Dane wejściowe muszą być szyfrowane na każdym etapie w potoku przetwarzania danych od momentu wprowadzenia danych przez użytkownika. Obejmuje to dane, gdy są one przenosine z jednego punktu do innego, gdzie są przechowywane i podczas wnioskowania, w razie potrzeby. Zrównoważ bezpieczeństwo i funkcjonalność, ale staraj się przechowywać dane prywatne w całym cyklu życia.

    Aby uzyskać informacje na temat technik szyfrowania, zobacz Projektowanie aplikacji.

  • Zapewnianie niezawodnych mechanizmów kontroli dostępu. Kilka typów tożsamości może potencjalnie uzyskiwać dostęp do danych użytkownika. Zaimplementuj kontrolę dostępu opartą na rolach (RBAC) zarówno dla płaszczyzny sterowania, jak i płaszczyzny danych, obejmującej komunikację między użytkownikami i systemami.

    Ponadto należy zachować właściwą segmentację użytkowników, aby chronić prywatność. Na przykład copilot dla platformy Microsoft 365 może wyszukiwać i udostępniać odpowiedzi na podstawie określonych dokumentów i wiadomości e-mail użytkownika, zapewniając dostęp tylko do zawartości istotnej dla tego użytkownika.

    Aby uzyskać informacje na temat wymuszania kontroli dostępu, zobacz Projektowanie aplikacji.

  • Zmniejsz obszar powierzchni. Podstawowa strategia filaru zabezpieczeń dobrze zaprojektowanej struktury polega na zminimalizowaniu obszaru ataków i wzmacniania zabezpieczeń zasobów. Ta strategia powinna być stosowana do standardowych praktyk zabezpieczeń punktów końcowych przez ścisłe kontrolowanie punktów końcowych interfejsu API, uwidacznianie tylko podstawowych danych i unikanie nadmiarowych informacji w odpowiedziach. Wybór projektu powinien być zrównoważony między elastycznością a kontrolą.

    Upewnij się, że nie ma żadnych anonimowych punktów końcowych. Ogólnie rzecz biorąc, należy unikać zapewniania klientom większej kontroli niż jest to konieczne. W większości scenariuszy klienci nie muszą dostosowywać hiperparametrów z wyjątkiem środowisk eksperymentalnych. W przypadku typowych przypadków użycia, takich jak interakcja z agentem wirtualnym, klienci powinni kontrolować tylko podstawowe aspekty w celu zapewnienia bezpieczeństwa przez ograniczenie niepotrzebnej kontroli.

    Aby uzyskać informacje, zobacz Projektowanie aplikacji.

Następne kroki