Przygotowanie do wpływu odpowiedzialnej sztucznej inteligencji

Ukończone

Sztuczna inteligencja to najważniejsza technologia naszej epoki. To już umożliwia szybsze i bardziej głębokie postępy w prawie każdym polu ludzkich wysiłków i pomaga rozwiązać niektóre z najbardziej zniechęcających wyzwań społeczeństwa. Na przykład sztuczna inteligencja może pomóc osobom niepełnosprawnym wzrokowo zrozumieć obrazy, generując opisowy tekst dla obrazów. W innym przykładzie sztuczna inteligencja może pomóc rolnikom produkować wystarczającą ilość żywności dla rosnącej globalnej populacji.

W firmie Microsoft uważamy, że analiza obliczeniowa sztucznej inteligencji powinna być używana do udoskonalania ludzkiej kreatywności i pomysłowości. Chcemy, aby dzięki sztucznej inteligencji każdy deweloper tworzył innowacje, umożliwiał organizacjom przekształcanie branż przemysłu i umożliwiał ludziom przekształcanie społeczeństwa.

Implikacje społeczne sztucznej inteligencji

Podobnie jak w przypadku wszystkich wspaniałych innowacji technologicznych w przeszłości, korzystanie z technologii sztucznej inteligencji ma szeroki wpływ na społeczeństwo, podnosząc złożone i trudne pytania dotyczące przyszłości, którą chcemy zobaczyć. Sztuczna inteligencja ma wpływ na podejmowanie decyzji w różnych branżach, bezpieczeństwie danych i ochronie prywatności oraz umiejętnościach, które ludzie muszą odnieść sukces w miejscu pracy. Spodziewając się takiej przyszłości, musimy zadać sobie następujące pytania:

  • Jak projektować i tworzyć systemy sztucznej inteligencji oraz jak korzystać z nich w celu uzyskania pozytywnego wpływu na poszczególne osoby i całe społeczeństwo?
  • Jak najlepiej przygotować pracowników do efektów sztucznej inteligencji?
  • Jak korzystać z zalety sztucznej inteligencji, jednocześnie zachowując prywatność?

Znaczenie odpowiedzialnego podejścia do sztucznej inteligencji

Ważne jest, aby uznać, że gdy pojawiają się nowe inteligentne technologie i proliferację w całym społeczeństwie, z korzyściami są niezamierzone i nieprzewidziane konsekwencje. Niektóre z tych konsekwencji mają znaczące konsekwencje etyczne i potencjał, aby spowodować poważne szkody. Chociaż organizacje nie mogą jeszcze przewidzieć przyszłości, naszym obowiązkiem jest dokonanie uzgodnionego wysiłku w celu przewidywania i łagodzenia niezamierzonych konsekwencji technologii, które uwalniamy na świat poprzez celowe planowanie i ciągły nadzór.

Zagrożenia

Każdy przełom w technologiach sztucznej inteligencji stanowi nowe przypomnienie o naszej wspólnej odpowiedzialności. Na przykład w 2016 roku firma Microsoft wydała czatbota na X o nazwie Tay, który może uczyć się od interakcji z użytkownikami X. Celem było umożliwienie czatbotowi lepszego replikowania ludzkiej komunikacji i cech osobowości. Jednak w ciągu 24 godzin użytkownicy zdali sobie sprawę, że czatbot może uczyć się od bigoted retoryki i przekształcił czatbota w pojazd na mowę nienawiści. To jest jeden z przykładów, dla których podczas projektowania systemów sztucznej inteligencji musimy wziąć pod uwagę zagrożenia ludzkie.

Nowe zagrożenia wymagają ciągłej ewolucji naszego podejścia do odpowiedzialnej sztucznej inteligencji. Na przykład dlatego, że generowanie sztucznej inteligencji umożliwia użytkownikom tworzenie lub edytowanie filmów wideo, obrazów lub plików audio tak wiarygodnie, że wyglądają naprawdę, autentyczność multimediów jest trudniej zweryfikować. W odpowiedzi firma Microsoft łączy współpracę z innymi osobami biorącymi udział w technologii i wiadomościach, aby opracować standardy techniczne w celu rozwiązania problemów związanych z manipulacją związaną z głębią.

Uwaga

Aby przygotować się do nowych typów ataków, które mogą mieć wpływ na zestawy danych szkoleniowych, firma Microsoft opracowała technologię, taką jak zaawansowane filtry zawartości i wprowadziła nadzorców dla systemów sztucznej inteligencji z funkcjami automatycznego uczenia. Bieżące modele generowania sztucznej inteligencji, takie jak te udostępniane w usługach Azure AI Services lub Bing Chat, są oparte na tych szczegółowych danych.

Stronnicze wyniki

Kolejną niezamierzoną konsekwencją, o której organizacje powinny pamiętać, jest to, że sztuczna inteligencja może utrwalać społeczną lub innego rodzaju stronniczość bez celowego planowania lub projektowania. Ważne jest, aby deweloperzy zrozumieli, w jaki sposób można wprowadzać stronniczy dostęp do danych szkoleniowych lub modeli uczenia maszynowego. Ten problem może być wszechobecny w wstępnie utworzonych modelach, ponieważ użytkownik może nie obsługiwać samych danych treningowych.

Rozważmy na przykład dużą instytucję kredytową, która chce opracować system oceny ryzyka dla zatwierdzeń kredytowych. Kiedy inżynierowie testują system przed wdrożeniem, zdają sobie sprawę, że zatwierdza tylko pożyczki dla mężczyzn kredytobiorców. Ponieważ system został przeszkolony na podstawie danych przeszłości klienta, odtworzył historyczną seksistowskią stronniczość funkcjonariuszy pożyczek. Zweryfikowanie systemu przed wdrożeniem pozwoliło nam zidentyfikować i rozwiązać problem przed uruchomieniem systemu.

Uwaga

Pracownicy naukowo-badawczy firmy Microsoft analizują narzędzia i techniki umożliwiające wykrywanie i ograniczanie stronniczości w systemach sztucznej inteligencji. Wstępnie utworzone modele są dokładnie weryfikowane, ale jednak należy ich używać mądrze, a ich wyniki powinny być zawsze poddawane inspekcji przed podjęciem działań.

Wrażliwe przypadki użycia

Innym przykładem naszej odpowiedzialności za eliminowanie niezamierzonych konsekwencji są wrażliwe technologie takie jak rozpoznawanie twarzy. W ostatnim czasie odnotowuje się rosnące zapotrzebowanie na technologię rozpoznawania twarzy, zwłaszcza ze strony instytucji wymiaru sprawiedliwości, które widzą potencjał tej technologii m.in. w poszukiwaniu zaginionych dzieci. Zdajemy sobie jednak sprawę, że te technologie mogą stanowić zagrożenie dla podstawowych swobód. Mogą na przykład umożliwić ciągłą inwigilację określonych osób. Uważamy, że społeczeństwo musi wyznaczyć dla takich technologii stosowne granice, które gwarantowałyby stosowanie technologii rozpoznawania twarzy zgodnie z literą prawa.

Podczas gdy nowe przepisy prawne i przepisy muszą być napisane, nie są one zamiennikiem odpowiedzialności, jaką wszyscy mamy podczas angażowania się w sztuczną inteligencję. Współpracując ze sobą, przedsiębiorstwa, instytucje rządowe, organizacje pozarządowe i naukowcy akademiccy mogą radzić sobie z poufnymi przypadkami użycia.

Uwaga

Firma Microsoft ocenia i rozwija zasady zarządzania naszą pracą z technologiami rozpoznawania twarzy. Przewidujemy, że te zasady będą się zmieniać z biegiem czasu, gdy będziemy zdobywać nową wiedzę oraz nawiązywać współpracę z klientami, innymi firmami z branży technologii, naukowcami, obywatelami oraz innymi osobami lub podmiotami. Firma Microsoft stosuje praktyki odpowiedzialnego używania sztucznej inteligencji do wykrywania, zapobiegania i eliminowania tych problemów, ale każdy projekt związany ze sztuczną inteligencją również powinien je rozważyć.

Następnie zobaczmy, jak można zastosować sześć wytycznych firmy Microsoft dotyczących odpowiedzialnej sztucznej inteligencji w innych organizacjach.