Identyfikowanie wytycznych dla odpowiedzialnego używania sztucznej inteligencji
W ostatniej lekcji omówiliśmy niektóre społeczne implikacje sztucznej inteligencji. Poruszyliśmy odpowiedzialność przedsiębiorstw, instytucji rządowych, organizacji pozarządowych i naukowców w celu przewidywania i eliminowania niezamierzonych konsekwencji technologii sztucznej inteligencji. W miarę jak organizacje rozważają te obowiązki, coraz więcej tworzy wewnętrzne zasady i praktyki prowadzące do wysiłków związanych ze sztuczną inteligencją.
W firmie Microsoft uznajemy sześć zasad, które naszym zdaniem powinny być wytycznymi w zakresie tworzenia i używania sztucznej inteligencji. Są to: sprawiedliwość, niezawodność i zabezpieczenia, prywatność i bezpieczeństwo, brak wykluczeń, przejrzystość i odpowiedzialność. Dla nas te zasady są fundamentem odpowiedzialnego i wiarygodnego podejścia do sztucznej inteligencji, szczególnie gdy inteligentne technologie są coraz powszechniejsze w produktach i usługach, których używamy każdego dnia.
Sprawiedliwość
Systemy sztucznej inteligencji powinny traktować wszystkich sprawiedliwie i unikać wpływania na grupy osób w podobnej sytuacji na różne sposoby. Gdy na przykład systemy sztucznej inteligencji zapewniają wskazówki dotyczące leczenia, aplikacji kredytowych lub zatrudnienia, powinny dawać takie same zalecenia dla każdej osoby o takich samych objawach, sytuacji finansowej czy kwalifikacjach zawodowych.
Aby zapewnić sprawiedliwość w systemie sztucznej inteligencji, należy:
- Poznaj zakres, ducha i potencjalne zastosowanie systemu sztucznej inteligencji, zadając pytania takie jak: Jak powinien działać system? Dla kogo system jest przeznaczony? Czy system będzie działać dla wszystkich w równym stopniu? W jaki sposób może wyrządzić szkody innym osobom?
- Przyciągnij zróżnicowaną pulę pracowników. Upewnij się, że zespół projektowy odzwierciedla świat, w którym żyjemy, uwzględniając członków zespołu, którzy mają różne doświadczenia, doświadczenia, edukację i perspektywy.
- Zidentyfikuj stronniczość w zestawach danych, oceniając, skąd pochodzą dane, rozumiejąc sposób ich organizowania i testując, aby upewnić się, że są reprezentowane. Stronniczość może zostać wprowadzona na każdym etapie tworzenia — od zbierania, przez modelowanie, po operację. Pulpit nawigacyjny odpowiedzialnej sztucznej inteligencji dostępny w sekcji Zasoby zawiera funkcję pomocną w tym zadaniu.
- Zidentyfikuj stronniczość algorytmów uczenia maszynowego, stosując narzędzia i techniki, które zwiększają przejrzystość i zrozumiałość modeli. Użytkownicy powinni aktywnie identyfikować i usuwać stronniczy algorytmy uczenia maszynowego.
- Skorzystaj z oceny przez człowieka i wiedzy w określonych dziedzinach. Trenowanie pracowników w celu zrozumienia znaczenia wyników sztucznej inteligencji i implikacji, zwłaszcza gdy sztuczna inteligencja jest używana do informowania o konsekwencjach decyzji dotyczących ludzi. Decyzje korzystające ze sztucznej inteligencji powinny być zawsze sparowane z przeglądem ludzkim. Uwzględnij odpowiednich ekspertów w tej dziedzinie w procesie projektowania i w decyzjach dotyczących wdrażania. Przykładem może być uwzględnienie eksperta ds. kredytów konsumenckich dla systemu sztucznej inteligencji punktacji kredytowej. Należy użyć sztucznej inteligencji jako copilot, czyli narzędzia ułatwiającego wykonywanie pracy lepiej i szybciej, ale wymaga pewnego stopnia nadzoru.
- Wyszukaj i zastosuj najlepsze rozwiązania, techniki analityczne oraz narzędzia z innych instytucji oraz przedsiębiorstw, aby ułatwić wykrywanie stronniczości w systemach sztucznej inteligencji, zapobieganie jej oraz reagowanie na nią.
Niezawodność i bezpieczeństwo
Aby zwiększyć zaufanie, systemy sztucznej inteligencji muszą działać niezawodnie, bezpiecznie i spójnie zarówno w normalnych, jak i nieoczekiwanych warunkach. Systemy te powinny działać zgodnie z ich pierwotnym projektem, bezpiecznie reagować na nieoczekiwane warunki i być odporne na szkodliwe manipulacje. Ważna jest również możliwość weryfikacji, czy te systemy zachowują się zgodnie z oczekiwaniami w rzeczywistych warunkach pracy. Ich zachowanie oraz różnorodność warunków, w których mogą niezawodnie i bezpiecznie pracować, jest w dużym stopniu odzwierciedleniem sytuacji i okoliczności, które deweloperzy przewidują podczas projektowania i testowania.
Aby zapewnić niezawodność i bezpieczeństwo w systemie sztucznej inteligencji, należy:
- Opracowywanie procesów inspekcji systemów sztucznej inteligencji w celu oceny jakości i przydatności danych i modeli, monitorowania ciągłej wydajności i weryfikowania, czy systemy działają zgodnie z oczekiwaniami na podstawie ustalonych miar wydajności.
- Podaj szczegółowe wyjaśnienie działania systemu, w tym specyfikacje projektu, informacje o danych szkoleniowych, niepowodzenia trenowania, które wystąpiły, a także potencjalne niedoskonałości w danych szkoleniowych oraz wnioskowania i wygenerowane ważne przewidywania.
- Projektuj pod kątem niezamierzonych okoliczności, takich jak przypadkowe interakcje systemowe, wprowadzenie złośliwych danych lub cyberataki.
- Zaangażuj ekspertów z dziedziny w procesy projektowania i implementacji, zwłaszcza w przypadku korzystania ze sztucznej inteligencji, aby pomóc w podejmowaniu konsekwencji decyzji dotyczących osób.
- Przeprowadź rygorystyczne testy podczas tworzenia i wdrażania systemu sztucznej inteligencji, aby systemy mogły bezpiecznie reagować na nieprzewidziane sytuacje, nie miały nieoczekiwanych awarii i nie rozwijały się w nieoczekiwany sposób. Systemy sztucznej inteligencji używane w ważnych scenariuszach mających wpływ na bezpieczeństwo ludzi lub duże populacje powinny być testowane zarówno w warunkach laboratoryjnych, jak i rzeczywistych.
- Oceń, kiedy i w jaki sposób system sztucznej inteligencji powinien domagać się ingerencji człowieka w przypadku ważnych decyzji lub sytuacji krytycznych. Rozważ, jak system sztucznej inteligencji powinien przekazywać kontrolę człowiekowi w zrozumiały sposób. Zaprojektuj systemy sztucznej inteligencji tak, aby zapewnić ludziom odpowiednio duży wpływ na podejmowanie ważnych decyzji.
- Opracowanie niezawodnego mechanizmu przesyłania opinii dla użytkowników w celu zgłaszania problemów z wydajnością, dzięki czemu można je szybko rozwiązać.
Prywatność i zabezpieczenia
W miarę jak sztuczna inteligencja staje się bardziej powszechna, ochrona prywatności i zabezpieczenia ważnych danych osobowych i biznesowych staje się coraz ważniejsze i bardziej skomplikowane. W przypadku sztucznej inteligencji kwestie dotyczące zabezpieczeń danych wymagają szczególnie dużej uwagi, ponieważ sztuczna inteligencja musi mieć dostęp do danych, aby mogła tworzyć celne prognozy i podejmować słuszne decyzje dotyczące ludzi.
Aby zapewnić prywatność i bezpieczeństwo w systemie sztucznej inteligencji, należy:
- Zgodność z odpowiednimi przepisami dotyczącymi ochrony danych, prywatności i przejrzystości poprzez inwestowanie zasobów w opracowywanie technologii i procesów zgodności lub pracę z liderem technologii podczas opracowywania systemów sztucznej inteligencji. Opracuj procesy stale sprawdzające, czy systemy sztucznej inteligencji przestrzegają wszystkich aspektów tych praw.
- Zaprojektuj systemy sztucznej inteligencji zachowujące integralność danych osobowych tak, aby mogły korzystać tylko z danych osobowych wtedy, gdy jest to konieczne, i w określonych celach, które są znane klientom. Usuń przypadkowo zebrane dane osobowe lub dane, które nie mają już zastosowania do określonego celu.
- Chroń systemy sztucznej inteligencji przed złośliwymi użytkownikami, projektując je zgodnie z bezpiecznymi rozwiązaniami programistycznymi i operacyjnymi, korzystając z dostępu opartego na rolach i chroniąc dane osobiste i poufne przekazywane podmiotom trzecim. Projektuj systemy sztucznej inteligencji identyfikujące nietypowe zachowania oraz uniemożliwiające manipulowanie i przeprowadzanie złośliwych ataków.
- Projektuj systemy sztucznej inteligencji z odpowiednimi kontrolkami, aby klienci mogli wybierać, jak i dlaczego ich dane są zbierane oraz używane.
- Upewnij się, że system sztucznej inteligencji zachowuje anonimowość , uwzględniając sposób usuwania przez system identyfikacji osobistej z danych.
- Przeprowadź przeglądy dotyczące prywatności i zabezpieczeń dla wszystkich systemów sztucznej inteligencji.
- Badaj i wdrażaj najlepsze rozwiązania branżowe do śledzenia istotnych informacji dotyczących danych klientów, do uzyskiwania dostępu do tych danych i korzystania z nich oraz do inspekcji dostępu i używania.
Brak wykluczeń
W firmie Microsoft uważamy, że wszyscy powinni odnosić korzyści z używania inteligentnej technologii. Oznacz to, że technologia ta musi uwzględniać szeroki zakres ludzkich potrzeb i doświadczeń. Dla miliarda osób niepełnosprawnych na całym świecie technologie sztucznej inteligencji mogą być prawdziwą rewolucją. Sztuczna inteligencja może zapewnić lepszy dostęp do edukacji, usług instytucji rządowych, zatrudnienia, informacji oraz wielu innych możliwości. Inteligentne rozwiązania, takie jak zamiana mowy w czasie rzeczywistym na transkrypcję tekstu, usługi rozpoznawania wizualnego i funkcje tekstu predykcyjnego, już umożliwiają osobom niedosłyszące, wzrokowe i inne niedowidzące.
Zasady projektowania inkluzywnego firmy Microsoft:
- Rozpoznaj wyjątek
- Tworzenie rozwiązań dla jednej osoby, a następnie rozszerzanie na wiele osób
- Uczenie się od różnorodności
Aby zapewnić inkluzywność w systemie sztucznej inteligencji, należy:
- Przestrzegaj przepisów dotyczących ułatwień dostępu i inkluzywności , które nakazują zaopatrzenie w dostępną technologię.
- Skorzystaj z podręcznika inkluzywnego 101 dostępnego w sekcji zasobów tego modułu, aby pomóc deweloperom systemu zrozumieć i rozwiązać potencjalne bariery w środowisku produktu, które mogłyby przypadkowo wykluczyć ludzi.
- Osoby niepełnosprawne przetestują systemy , aby ułatwić ustalenie, czy system może być używany zgodnie z oczekiwaniami najszerszych odbiorców.
- Weź pod uwagę najczęściej używane standardy ułatwień dostępu, aby ułatwić zapewnienie dostępności systemu dla osób niepełnosprawnych.
Przezroczystość
Podstawą poprzednich wartości są dwie fundamentalne zasady, które się nieodzownym elementem zapewniania skuteczności pozostałych zasad: przejrzystość i odpowiedzialność. Ważne jest, aby ludzie zrozumieli, w jaki sposób systemy sztucznej inteligencji wyciągają wnioski, gdy są używane do informowania o decyzjach mających wpływ na życie ludzi. Na przykład bank może za pomocą systemu sztucznej inteligencji zdecydować, czy dana osoba posiada zdolność kredytową, lub firma może przy użyciu systemu sztucznej inteligencji do ustalić najlepszych kandydatów do zatrudnienia.
Istotną częścią przejrzystości jest to, co określamy zrozumiałością, czyli użyteczne wyjaśnienie zachowania systemów sztucznej inteligencji oraz ich składników. Poprawa przejrzystości wymaga, aby osoby biorące udział w projekcie rozumiały, jak i dlaczego te systemy działają, i potrafiły zidentyfikować potencjalne problemy z wydajnością, kwestie związane z bezpieczeństwem i prywatnością, stronniczość, praktyki wykluczające lub niezamierzone wyniki. Uważamy również, że osoby korzystające z systemów sztucznej inteligencji powinny być uczciwe i nadchodzące o tym, kiedy, dlaczego i jak decydują się je wdrożyć.
Aby zapewnić przejrzystość systemu sztucznej inteligencji, należy:
- Udostępniaj kluczowe charakterystyki zestawów danych, aby ułatwić deweloperom zrozumienie, czy konkretny zestaw danych jest odpowiedni dla ich przypadku użycia.
- Zwiększ zrozumiałość modelu, stosując prostsze modele i generując zrozumiałe wyjaśnienia zachowania modelu. W tym zadaniu możesz użyć pulpitu nawigacyjnego odpowiedzialnej sztucznej inteligencji dostępnego w sekcji zasobów.
- Naucz pracowników, jak interpretować dane wyjściowe sztucznej inteligencji, i upewnij się, że pozostaną oni odpowiedzialni za decyzje podejmowane na podstawie tych wyników.
Odpowiedzialności
Osoby, które projektują i wdrażają systemy sztucznej inteligencji, muszą być odpowiedzialne za sposób działania ich systemów. Organizacje powinny ustalać normy odpowiedzialności na podstawie standardów branżowych. Te normy mogą zapewnić, że systemy sztucznej inteligencji nie są ostatecznym autorytetem w żadnej decyzji, która ma wpływ na życie ludzi i że ludzie zachowują znaczącą kontrolę nad systemami sztucznej inteligencji w inny sposób wysoce autonomicznymi.
Aby zapewnić odpowiedzialność w systemie sztucznej inteligencji, należy:
- Utwórz wewnętrzne komisje, aby zapewnić nadzór i wskazówki dotyczące odpowiedzialnego rozwoju i wdrażania systemów sztucznej inteligencji. Mogą one również pomóc w zadaniach, takich jak definiowanie najlepszych rozwiązań dotyczących dokumentowania i testowania systemów sztucznej inteligencji podczas opracowywania lub zapewnianie wskazówek dotyczących przypadków poufnych.
- Upewnij się, że pracownicy są przeszkoleni , aby korzystać z rozwiązania i utrzymywać je w sposób odpowiedzialny i etyczny oraz zrozumieć, kiedy rozwiązanie może wymagać dodatkowej pomocy technicznej.
- Zadbaj o to, aby osoby z wymaganą wiedzą miały aktualne informacje, przekazując im raporty i angażując je w podejmowanie decyzji dotyczących wykonywania modelu. Gdy wymagana jest automatyzacja decyzji, upewnij się, że są one w stanie sprawdzać, identyfikować i rozwiązywać problemy z danymi wyjściowymi i wykonywaniem modelu.
- Ustal jasny system odpowiedzialności i ładu, aby przeprowadzać korygowanie i działania naprawcze, jeśli modele zachowują się w niesprawiedliwy lub potencjalnie szkodliwy sposób.
Zdajemy sobie sprawę, że każda osoba, firma i region mają własne przekonania i standardy, które powinny zostać odzwierciedlone w swojej podróży do sztucznej inteligencji. Poznaj naszą perspektywę, jeśli rozważasz utworzenie własnych wytycznych.
Napiwek
Pośmiń chwilę na burzę mózgów dla każdej z zasad odpowiedzialnej sztucznej inteligencji.
Te zasady stanowią ogólne pojęcie o tym, co powinniśmy zrobić podczas opracowywania i używania sztucznej inteligencji. Należy jednak zastanowić się nad bardziej praktycznym poziomem. Następnie przyjrzyjmy się temu, jak te zasady można zapewnić za pomocą systemu zapewniania ładu w zakresie sztucznej inteligencji.