Udostępnij za pośrednictwem


Model wspólnej odpowiedzialności sztucznej inteligencji (AI)

Rozważanie i ocena integracji z włączoną sztuczną inteligencją ma kluczowe znaczenie dla zrozumienia modelu wspólnej odpowiedzialności oraz zadań obsługiwanych przez platformę sztucznej inteligencji lub dostawcę aplikacji oraz zadań, które są obsługiwane. Obowiązki związane z obciążeniem różnią się w zależności od tego, czy integracja sztucznej inteligencji jest oparta na oprogramowaniu jako usłudze (SaaS), platformie jako usłudze (PaaS) lub infrastrukturze jako usłudze (IaaS).

Podział odpowiedzialności

Podobnie jak w przypadku usług w chmurze, masz opcje wdrażania funkcji sztucznej inteligencji dla organizacji. W zależności od wybranej opcji ponosisz odpowiedzialność za różne części niezbędnych operacji i zasad potrzebnych do bezpiecznego korzystania ze sztucznej inteligencji.

Na poniższym diagramie przedstawiono obszary odpowiedzialności między Tobą a firmą Microsoft zgodnie z typem wdrożenia.

Diagram przedstawiający strefy odpowiedzialności za sztuczną inteligencję.

Omówienie warstwy sztucznej inteligencji

Aplikacja z włączoną sztuczną inteligencją składa się z trzech warstw funkcji, które grupują zadania, które wykonujesz lub dostawca sztucznej inteligencji. Obowiązki związane z zabezpieczeniami są zwykle związane z tym, kto wykonuje zadania, ale dostawca sztucznej inteligencji może zdecydować się na uwidocznienie zabezpieczeń lub innych mechanizmów kontroli jako opcji konfiguracji. Te trzy warstwy obejmują:

Platforma sztucznej inteligencji

Warstwa platformy sztucznej inteligencji zapewnia możliwości sztucznej inteligencji aplikacjom. W warstwie platformy istnieje potrzeba utworzenia i zabezpieczenia infrastruktury, która uruchamia model AI, dane szkoleniowe i określone konfiguracje, które zmieniają zachowanie modelu, takie jak wagi i uprzedzenia. Ta warstwa zapewnia dostęp do funkcji za pośrednictwem interfejsów API, które przekazują tekst znany jako metaprompt do modelu sztucznej inteligencji na potrzeby przetwarzania, a następnie zwracają wygenerowany wynik, znany jako monit-odpowiedź.

Zagadnienia dotyczące zabezpieczeń platformy sztucznej inteligencji — aby chronić platformę sztucznej inteligencji przed złośliwymi danymi wejściowymi, należy skompilować system bezpieczeństwa w celu odfiltrowania potencjalnie szkodliwych instrukcji wysyłanych do modelu AI (danych wejściowych). Ponieważ modele sztucznej inteligencji są generowane, istnieje również możliwość wygenerowania niektórych szkodliwych zawartości i zwrócenia jej do użytkownika (danych wyjściowych). Każdy system bezpieczeństwa musi najpierw chronić przed potencjalnie szkodliwymi danymi wejściowymi i danymi wyjściowymi wielu klasyfikacji, w tym nienawiści, jailbreaków i innych. Te klasyfikacje będą prawdopodobnie ewoluować w miarę upływu czasu na podstawie wiedzy o modelu, ustawień regionalnych i branży.

Firma Microsoft ma wbudowane systemy bezpieczeństwa zarówno dla ofert PaaS, jak i SaaS:

Aplikacja sztucznej inteligencji

Aplikacja sztucznej inteligencji uzyskuje dostęp do funkcji sztucznej inteligencji i udostępnia usługę lub interfejs używany przez użytkownika. Składniki w tej warstwie mogą się różnić od stosunkowo prostych do wysoce złożonych, w zależności od aplikacji. Najprostsze autonomiczne aplikacje sztucznej inteligencji działają jako interfejs dla zestawu interfejsów API korzystających z tekstowego monitu użytkownika i przekazywania tych danych do modelu na potrzeby odpowiedzi. Bardziej złożone aplikacje sztucznej inteligencji obejmują możliwość uziemienia monitu użytkownika z dodatkowym kontekstem, w tym warstwy trwałości, indeksu semantycznego lub za pośrednictwem wtyczek, aby umożliwić dostęp do większej liczby źródeł danych. Zaawansowane aplikacje sztucznej inteligencji mogą również być interfejsem z istniejącymi aplikacjami i systemami. Istniejące aplikacje i systemy mogą działać między tekstem, dźwiękiem i obrazami w celu wygenerowania różnych typów zawartości.

Zagadnienia dotyczące zabezpieczeń aplikacji sztucznej inteligencji — aby chronić aplikację AI przed złośliwymi działaniami, należy skompilować system bezpieczeństwa aplikacji. System bezpieczeństwa zapewnia głęboką inspekcję zawartości używanej w metaprompt wysłanym do modelu sztucznej inteligencji. System bezpieczeństwa sprawdza również interakcje z wszelkimi wtyczkami, łącznikami danych i innymi aplikacjami sztucznej inteligencji (znanymi jako AI Orchestration). Jednym ze sposobów włączenia tej funkcji we własnej aplikacji sztucznej inteligencji opartej na usłudze IaaS/PaaS jest użycie usługi Azure AI Content Safety . Inne możliwości są dostępne w zależności od potrzeb.

Użycie sztucznej inteligencji

Warstwa użycia sztucznej inteligencji opisuje sposób, w jaki możliwości sztucznej inteligencji są ostatecznie używane i używane. Generowanie sztucznej inteligencji oferuje nowy typ interfejsu użytkownika/komputera, który zasadniczo różni się od innych interfejsów komputerowych, takich jak interfejs API, wiersz polecenia i graficzne interfejsy użytkownika (GUI). Interfejs generowania sztucznej inteligencji jest zarówno interaktywny, jak i dynamiczny, dzięki czemu możliwości komputera mogą dostosować się do użytkownika i ich intencji. Interfejs generowania sztucznej inteligencji kontrastuje z poprzednimi interfejsami, które przede wszystkim wymuszają na użytkownikach poznanie projektu i funkcjonalności systemu i dostosowanie się do niego. Ta interakcyjność umożliwia wprowadzanie danych wejściowych użytkownika zamiast projektantów aplikacji, aby mieć wysoki poziom wpływu na dane wyjściowe systemu, dzięki czemu zabezpieczenia mają kluczowe znaczenie dla ochrony osób, danych i zasobów biznesowych.

Zagadnienia dotyczące zabezpieczeń użycia sztucznej inteligencji — ochrona użycia sztucznej inteligencji jest podobna do każdego systemu komputerowego, ponieważ opiera się na zapewnianiu bezpieczeństwa tożsamości i kontroli dostępu, ochronie urządzeń i monitorowaniu, ochronie danych i zarządzaniu, kontroli administracyjnej i innych mechanizmach kontroli.

Większy nacisk jest wymagany na zachowanie i odpowiedzialność użytkowników ze względu na zwiększony wpływ użytkowników na dane wyjściowe systemów. Ważne jest, aby zaktualizować akceptowalne zasady użytkowania i edukować użytkowników na różnicę standardowych aplikacji IT w aplikacjach z obsługą sztucznej inteligencji. Powinny one obejmować zagadnienia specyficzne dla sztucznej inteligencji związane z bezpieczeństwem, prywatnością i etyką. Ponadto użytkownicy powinni kształcić się na podstawie ataków opartych na sztucznej inteligencji, które mogą służyć do ich oszukać przekonującym fałszywym tekstem, głosami, filmami i nie tylko.

Określone typy ataków sztucznej inteligencji są definiowane w:

Cykl życia zabezpieczeń

Podobnie jak w przypadku zabezpieczeń innych typów możliwości, kluczowe jest zaplanowanie kompletnego podejścia. Kompletne podejście obejmuje ludzi, proces i technologię w całym cyklu życia zabezpieczeń: identyfikowanie, ochrona, wykrywanie, reagowanie, odzyskiwanie i zarządzanie. Każda luka lub słabość tego cyklu życia może mieć następujące siły:

  • Nie można zabezpieczyć ważnych zasobów
  • Łatwe zapobieganie atakom
  • Nie można obsłużyć ataków
  • Nie można szybko przywrócić usług krytycznych dla działania firmy
  • Stosowanie kontrolek w sposób spójny

Aby dowiedzieć się więcej o unikatowym charakterze testowania zagrożeń sztucznej inteligencji, przeczytaj, jak zespół ds. sztucznej inteligencji firmy Microsoft tworzy przyszłość bezpieczniejszej sztucznej inteligencji.

Konfigurowanie przed dostosowaniem

Firma Microsoft zaleca organizacjom rozpoczęcie od rozwiązań opartych na modelu SaaS, takich jak model Copilot, w celu ich początkowego wdrożenia sztucznej inteligencji i wszystkich kolejnych obciążeń sztucznej inteligencji. Minimalizuje to poziom odpowiedzialności i wiedzy, które organizacja musi zapewnić, aby projektować, obsługiwać i zabezpieczać te wysoce złożone możliwości.

Jeśli bieżące możliwości "poza półką" nie spełniają określonych potrzeb dla obciążenia, możesz wdrożyć model PaaS przy użyciu usług sztucznej inteligencji, takich jak usługa Azure OpenAI Service, aby spełnić te określone wymagania.

Tworzenie niestandardowego modelu powinno zostać przyjęte tylko przez organizacje, które mają głęboką wiedzę na temat nauki o danych i bezpieczeństwa, prywatności i etycznej kwestii związanych ze sztuczną inteligencją.

Aby ułatwić korzystanie ze sztucznej inteligencji na świecie, firma Microsoft opracowuje rozwiązania Copilot dla każdego z głównych rozwiązań zwiększających produktywność: od Bing i Windows do usług GitHub i Office 365. Firma Microsoft opracowuje rozwiązania pełnego stosu dla wszystkich typów scenariuszy produktywności. Są one oferowane jako rozwiązania SaaS. Wbudowane w interfejs użytkownika produktu, są one dostrojone w celu ułatwienia użytkownikowi określonych zadań w celu zwiększenia produktywności.

Firma Microsoft zapewnia, że każde rozwiązanie Copilot jest zaprojektowane zgodnie z naszymi silnymi zasadami zapewniania ładu w zakresie sztucznej inteligencji.

Następne kroki

Dowiedz się więcej o wymaganiach dotyczących tworzenia produktów firmy Microsoft dotyczących odpowiedzialnej sztucznej inteligencji w standardzie Odpowiedzialnej sztucznej inteligencji firmy Microsoft.

Dowiedz się więcej o wspólnych obowiązkach związanych z przetwarzaniem w chmurze.