Udostępnij za pośrednictwem


Bezpieczna sztuczna inteligencja — proces zabezpieczania sztucznej inteligencji

W tym artykule opisano proces organizacyjny zabezpieczania obciążeń sztucznej inteligencji. Koncentruje się ona na poufności, integralności i dostępności (CIA) sztucznej inteligencji. Skuteczne rozwiązania w zakresie zabezpieczeń zmniejszają ryzyko naruszenia, chroniąc poufność, integralność i dostępność modeli i danych sztucznej inteligencji. Bezpieczne środowisko sztucznej inteligencji jest również zgodne z celami zabezpieczeń biznesowych i zwiększa zaufanie do procesów opartych na sztucznej inteligencji.

Diagram przedstawiający proces wdrażania sztucznej inteligencji: strategia sztucznej inteligencji, plan sztucznej inteligencji, gotowość do sztucznej inteligencji, zarządzanie sztuczną inteligencją, zarządzanie sztuczną inteligencją i bezpieczna sztuczna inteligencja.

Ocena zagrożeń bezpieczeństwa sztucznej inteligencji

Ocena zagrożeń bezpieczeństwa sztucznej inteligencji obejmuje identyfikowanie i ocenianie potencjalnych luk w zabezpieczeniach, które mogą mieć wpływ na obciążenia sztucznej inteligencji. Proaktywne reagowanie na te zagrożenia pomaga zapobiegać naruszeniom, manipulowaniu i niewłaściwemu używaniu, co zwiększa niezawodność aplikacji sztucznej inteligencji. Takie podejście obsługuje również cele organizacji, chroniąc poufne dane i utrzymując zaufanie uczestników projektu.

  • Identyfikowanie typowych zagrożeń bezpieczeństwa sztucznej inteligencji. Użyj rozpoznanych zasobów, takich jak MITRE ATLAS, ryzyko OWASP Machine Learning i ryzyko generowania sztucznej inteligencji OWASP, aby regularnie oceniać zagrożenia we wszystkich obciążeniach sztucznej inteligencji. W przypadku ciągłego zarządzania stanem zabezpieczeń rozważ użycie narzędzi zabezpieczeń sztucznej inteligencji, takich jak zarządzanie stanem zabezpieczeń sztucznej inteligencji w Microsoft Defender dla Chmury. Te narzędzia mogą zautomatyzować wykrywanie i korygowanie ryzyka generowania sztucznej inteligencji.

  • Identyfikowanie ryzyka związanego z danymi. Utrata lub narażenie poufnych danych może mieć znaczący wpływ na zainteresowane strony organizacji i zobowiązania dotyczące zgodności. Użyj narzędzi dla całego przedsiębiorstwa, takich jak Zarządzanie ryzykiem wewnętrznym w Microsoft Purview, aby ocenić ryzyko wewnętrzne i zachować bezpieczeństwo danych w całej firmie. We wszystkich obciążeniach sztucznej inteligencji klasyfikuj i ustalaj priorytety ryzyka na podstawie poufności danych, które przetwarzają, przechowują lub przesyłają.

  • Przeprowadzanie modelowania zagrożeń sztucznej inteligencji. Wykonaj modelowanie zagrożeń sztucznej inteligencji dla całej firmy przy użyciu struktur, takich jak STRIDE, aby ocenić potencjalne wektory ataków dla wszystkich obciążeń sztucznej inteligencji. Regularnie aktualizuj modele zagrożeń, aby dostosować się do nowych przypadków użycia i zagrożeń sztucznej inteligencji. Centrum doskonałości sztucznej inteligencji powinno rozważyć scentralizowanie modelowania zagrożeń sztucznej inteligencji, aby zapewnić jednolite podejście w całej organizacji i ograniczyć ryzyko związane z różnymi modelami sztucznej inteligencji, źródłami danych i procesami.

  • Testowanie modeli sztucznej inteligencji. Przeprowadź testowanie red-team względem generowania modeli sztucznej inteligencji i niegeneracyjnych modeli, aby ocenić ich lukę w zabezpieczeniach przed atakami. Narzędzia, takie jak PyRIT , mogą zautomatyzować ten proces na potrzeby generowania sztucznej inteligencji, dzięki czemu można kwestionować dane wyjściowe modelu w różnych warunkach. Ten krok jest wysoce techniczny i wymaga dedykowanej wiedzy w celu skutecznego wykonywania.

Implementowanie mechanizmów kontroli zabezpieczeń sztucznej inteligencji

Implementowanie mechanizmów kontroli zabezpieczeń sztucznej inteligencji oznacza ustanowienie zasad, procedur i narzędzi, które chronią zasoby i dane sztucznej inteligencji. Te mechanizmy kontroli pomagają zapewnić zgodność z wymaganiami prawnymi i chronić przed nieautoryzowanym dostępem, obsługą ciągłej operacji i prywatnością danych. W przypadku stosowania spójnych mechanizmów kontroli w obciążeniach sztucznej inteligencji można efektywniej zarządzać zabezpieczeniami.

Zabezpieczanie zasobów sztucznej inteligencji

Zabezpieczanie zasobów sztucznej inteligencji obejmuje zarządzanie i ochronę systemów, modeli i infrastruktury, które obsługują aplikacje sztucznej inteligencji. Ten krok zmniejsza prawdopodobieństwo nieautoryzowanego dostępu i pomaga w standaryzacji praktyk zabezpieczeń w całej organizacji. Kompleksowy spis zasobów umożliwia spójne stosowanie zasad zabezpieczeń i wzmacnia ogólną kontrolę nad zasobami sztucznej inteligencji.

  • Ustanów scentralizowany spis zasobów sztucznej inteligencji. Utrzymywanie szczegółowego i aktualnego spisu zasobów obciążeń sztucznej inteligencji zapewnia jednolite stosowanie zasad zabezpieczeń do wszystkich obciążeń sztucznej inteligencji. Skompiluj spis wszystkich systemów sztucznej inteligencji, modeli, zestawów danych i infrastruktury na platformie Azure dla całej firmy. Skorzystaj z narzędzi, takich jak Eksplorator usługi Azure Resource Graph i Microsoft Defender dla Chmury, aby zautomatyzować proces odnajdywania. Microsoft Defender dla Chmury umożliwia odnajdywanie obciążeń generacyjnych sztucznej inteligencji oraz we wstępnie wdrażanych artefaktach sztucznej inteligencji.

  • Zabezpieczanie platform Azure AI. Standaryzacja aplikacji punktów odniesienia zabezpieczeń platformy Azure dla każdego zasobu sztucznej inteligencji. Postępuj zgodnie z zaleceniami dotyczącymi zabezpieczeń w przewodnikach usługi platformy Azure.

  • Skorzystaj ze wskazówek dotyczących ładu specyficznego dla obciążenia. Szczegółowe wskazówki dotyczące zabezpieczeń są dostępne dla obciążeń sztucznej inteligencji w usługach platformy Azure (PaaS) i infrastrukturze platformy Azure (IaaS). Skorzystaj z tych wskazówek, aby zabezpieczyć modele, zasoby i dane sztucznej inteligencji w ramach tych typów obciążeń.

Zabezpieczanie danych sztucznej inteligencji

Zabezpieczanie danych sztucznej inteligencji obejmuje ochronę danych używanych i generowanych przez modele sztucznej inteligencji. Skuteczne rozwiązania w zakresie zabezpieczeń danych pomagają zapobiegać nieautoryzowanemu dostępowi, wyciekom danych i naruszeniom zgodności. Kontrolowanie dostępu do danych i utrzymywanie szczegółowego wykazu również wspiera świadome podejmowanie decyzji i zmniejsza ryzyko ujawnienia poufnych informacji.

  • Definiowanie i utrzymywanie granic danych. Upewnij się, że obciążenia sztucznej inteligencji używają danych odpowiednich dla ich poziomu dostępu. Aplikacje sztucznej inteligencji dostępne dla wszystkich pracowników powinny przetwarzać tylko dane odpowiednie dla wszystkich pracowników. Aplikacje sztucznej inteligencji dostępne z Internetu muszą używać danych odpowiednich do użytku publicznego. Użyj oddzielnych zestawów danych lub środowisk dla różnych aplikacji sztucznej inteligencji, aby zapobiec nieumyślnym dostępowi do danych. Rozważ użycie zestawu narzędzi zabezpieczeń danych firmy Microsoft Purview w celu zabezpieczenia danych.

  • Zaimplementuj ścisłe mechanizmy kontroli dostępu do danych. Upewnij się, że aplikacje sprawdzają, czy użytkownicy końcowi mają uprawnienia dostępu do danych zaangażowanych w zapytania. Unikaj szerokich uprawnień systemowych dla akcji użytkownika. Działaj zgodnie z zasadą, że jeśli sztuczna inteligencja może uzyskać dostęp do określonych informacji, użytkownik powinien mieć uprawnienia dostępu bezpośrednio do niego.

  • Obsługa wykazu danych. Zachowaj aktualny wykaz wszystkich danych połączonych i używanych przez systemy sztucznej inteligencji, w tym lokalizacje magazynu i szczegóły dostępu. Regularne skanowanie i etykietowanie danych w celu śledzenia poziomów poufności i przydatności, pomoc w analizie i identyfikacji ryzyka. Rozważ użycie Wykaz danych w Microsoft Purview do mapowania i zarządzania danymi.

  • Utwórz plan zarządzania zmianami poufności danych. Śledzenie poziomów poufności danych w miarę ich zmiany w miarę upływu czasu. Użyj katalogu danych, aby monitorować informacje używane w obciążeniach sztucznej inteligencji. Zaimplementuj proces znajdowania i usuwania poufnych danych z obciążeń sztucznej inteligencji.

  • Zabezpieczanie artefaktów sztucznej inteligencji. Rozpoznawanie modeli i zestawów danych sztucznej inteligencji jako cennych własności intelektualnej i implementowanie środków w celu ich odpowiedniej ochrony. Przechowywanie modeli i zestawów danych sztucznej inteligencji za prywatnymi punktami końcowymi oraz w bezpiecznych środowiskach, takich jak usługa Azure Blob Storage i dedykowane obszary robocze. Zastosuj ścisłe zasady dostępu i szyfrowanie, aby chronić artefakty sztucznej inteligencji przed nieautoryzowanym dostępem lub kradzieżą, aby zapobiec zatruciu danych.

  • Ochrona poufnych danych. Jeśli oryginalne źródło danych jest nieodpowiednie do bezpośredniego użycia, należy użyć duplikatów, kopii lokalnych lub podzestawów zawierających tylko niezbędne informacje. Przetwarzanie poufnych danych w kontrolowanych środowiskach, które zawierają izolację sieci i rygorystyczne mechanizmy kontroli dostępu, aby zapobiec nieautoryzowanemu dostępowi lub wyciekom danych. Ponadto zaimplementuj kompleksowe zabezpieczenia, takie jak szyfrowanie, ciągłe monitorowanie i systemy wykrywania nieautoryzowanego dostępu w celu ochrony przed naruszeniami danych podczas przetwarzania.

Obsługa mechanizmów kontroli zabezpieczeń sztucznej inteligencji

Utrzymywanie mechanizmów kontroli zabezpieczeń sztucznej inteligencji obejmuje ciągłe monitorowanie, testowanie i aktualizowanie środków zabezpieczeń w celu rozwiązania zmieniających się zagrożeń. Regularne przeglądanie mechanizmów kontroli zabezpieczeń gwarantuje, że obciążenia sztucznej inteligencji pozostaną chronione i że organizacja może dostosować się do nowych zagrożeń. Aktywna konserwacja pomaga zapobiegać naruszeniom i utrzymywać zaufanie do systemów sztucznej inteligencji w czasie.

  • Zaimplementuj testowanie pod kątem wycieku danych i przymusu w systemach sztucznej inteligencji. Przeprowadź rygorystyczne testy, aby ustalić, czy dane poufne mogą być ujawnione lub coerced za pośrednictwem systemów sztucznej inteligencji. Przeprowadź testy ochrony przed utratą danych (DLP) i symuluj scenariusze ataku specyficzne dla sztucznej inteligencji. Symulowanie ataków inwersji modelu lub ataków niepożądanych w celu oceny odporności środków ochrony danych. Zapewnienie bezpieczeństwa modeli sztucznej inteligencji i procesów obsługi danych przed nieautoryzowanym dostępem i manipulowaniem ma kluczowe znaczenie dla utrzymania integralności danych i zaufania do aplikacji sztucznej inteligencji.

  • Zapewnianie szkoleń i świadomości pracowników skoncentrowanych na sztucznej inteligencji. Zapewnianie programów szkoleniowych dla wszystkich pracowników zaangażowanych w projekty sztucznej inteligencji. Podkreślenie znaczenia zabezpieczeń danych i najlepszych rozwiązań specyficznych dla opracowywania i wdrażania sztucznej inteligencji. Poinformuj pracowników o sposobie obsługi poufnych danych używanych podczas trenowania i rozpoznawania zagrożeń, takich jak ataki inwersji modelu lub zatrucie danych. Regularne szkolenie zapewnia, że członkowie zespołu są wiedzy na temat najnowszych protokołów zabezpieczeń sztucznej inteligencji i rozumieją swoją rolę w utrzymaniu integralności obciążeń sztucznej inteligencji.

  • Opracowywanie i utrzymywanie planu reagowania na zdarzenia związane z bezpieczeństwem sztucznej inteligencji. Utwórz strategię reagowania na zdarzenia dostosowane do systemów sztucznej inteligencji w celu rozwiązania potencjalnych naruszeń danych lub zdarzeń zabezpieczeń. Plan powinien zawierać jasne procedury wykrywania, raportowania i ograniczania zdarzeń zabezpieczeń, które mogą mieć wpływ na modele, dane lub infrastrukturę sztucznej inteligencji. Przeprowadzaj regularne ćwiczenia i symulacje skoncentrowane na scenariuszach specyficznych dla sztucznej inteligencji, aby zapewnić, że zespół reagowania jest przygotowany do wydajnego obsługi rzeczywistych zdarzeń dotyczących zabezpieczeń sztucznej inteligencji.

  • Przeprowadzanie okresowych ocen ryzyka. Ocenianie pojawiających się zagrożeń i luk w zabezpieczeniach specyficznych dla sztucznej inteligencji regularnie poprzez oceny ryzyka i analizy wpływu. Te oceny ułatwiają identyfikowanie nowych zagrożeń skojarzonych z modelami sztucznej inteligencji, procesami obsługi danych i środowiskami wdrażania. Oceny oceniają również potencjalne skutki naruszeń zabezpieczeń w systemach sztucznej inteligencji.

Następne kroki

Zarządzanie sztuczną inteligencją, zarządzanie sztuczną inteligencją i zabezpieczanie sztucznej inteligencji to ciągłe procesy, przez które należy regularnie wykonywać iterowanie. Ponownie zapoznaj się ze strategią sztucznej inteligencji, planem sztucznej inteligencji i gotowym do użycia sztucznej inteligencji zgodnie z potrzebami. Skorzystaj z list kontrolnych wdrażania sztucznej inteligencji, aby określić, jaki powinien być następny krok.