Zalecenia dotyczące zabezpieczeń obciążeń sztucznej inteligencji na platformie Azure
Ten artykuł zawiera zalecenia dotyczące zabezpieczeń dla organizacji z obciążeniami sztucznej inteligencji na platformie Azure. Koncentruje się ona na rozwiązaniach typu "platforma jako usługa" (PaaS), w tym azure AI Foundry, Azure OpenAI, Azure Machine Learning i Azure AI Services. Obejmuje ona zarówno obciążenia generowania, jak i niegeneracyjne sztuczną inteligencję.
Ponieważ sztuczna inteligencja staje się bardziej zintegrowana z operacjami biznesowymi, ochrona tych zasobów przed potencjalnymi zagrożeniami ma kluczowe znaczenie dla zachowania integralności i zgodności danych. Stosowanie ustandaryzowanych punktów odniesienia zabezpieczeń i przestrzeganie dobrze zaprojektowanych struktur pomaga organizacjom chronić infrastrukturę sztucznej inteligencji przed lukami w zabezpieczeniach.
Zabezpieczanie zasobów sztucznej inteligencji
Zabezpieczanie zasobów sztucznej inteligencji oznacza stosowanie punktów odniesienia zabezpieczeń i najlepszych rozwiązań w celu ochrony infrastruktury używanej na potrzeby obciążeń sztucznej inteligencji na platformie Azure. Ta ochrona minimalizuje zagrożenia zewnętrzne i zapewnia spójny stan zabezpieczeń w całej organizacji.
Zabezpieczanie platform Azure AI. Standaryzacja aplikacji punktów odniesienia zabezpieczeń platformy Azure dla każdego zasobu sztucznej inteligencji. Postępuj zgodnie z zaleceniami dotyczącymi zabezpieczeń w przewodnikach usługi platformy Azure w ramach platformy Azure Well-Architected Framework.
Punkt odniesienia zabezpieczeń platformy Azure AI | Przewodnik po usłudze Azure Well-Architected Framework |
---|---|
Azure Machine Learning | Azure Machine Learning |
Azure AI Foundry | |
Azure OpenAI | Azure OpenAI |
Zabezpieczanie modeli sztucznej inteligencji
Zabezpieczanie modeli sztucznej inteligencji odnosi się do implementowania ochrony przed zagrożeniami, monitorowania pod kątem ryzyka monitowania o wstrzyknięcie, weryfikowania integralności modelu i scentralizowanego ładu. Te rozwiązania zapewniają bezpieczeństwo modeli sztucznej inteligencji przed złośliwym manipulowaniem, utrzymywanie ich niezawodności i dostarczanie dokładnych wyników.
Zaimplementuj ochronę przed zagrożeniami dla wszystkich modeli sztucznej inteligencji. Użyj Microsoft Defender dla Chmury, aby chronić modele sztucznej inteligencji przed zagrożeniami, takimi jak ataki polegających na wstrzyknięciu monitu i manipulowanie modelami. To narzędzie zapewnia ciągłe monitorowanie obciążeń sztucznej inteligencji, pomagając wykrywać i zapobiegać pojawiającym się zagrożeniom. Zaimplementowanie tej ochrony we wszystkich obciążeniach zapewnia spójny stan zabezpieczeń w całej organizacji.
Monitorowanie danych wyjściowych i stosowanie osłony monitów. Regularnie sprawdzaj dane zwracane przez modele sztucznej inteligencji, aby wykrywać i ograniczać ryzyko związane ze złośliwymi lub nieprzewidywalnymi monitami użytkownika. Zaimplementuj ustawienie Monituj osłony , aby skanować tekst pod kątem ryzyka ataku wejściowego użytkownika na generowanie modeli Al.
Upewnij się, że weryfikacja modelu. Ustanów mechanizmy weryfikacji dla całej firmy, aby zapewnić, że wszystkie używane modele sztucznej inteligencji są wiarygodne i bezpieczne. Jeśli używasz modeli typu open source, użyj podpisów modelu lub innych procesów weryfikacji, aby potwierdzić autentyczność modeli sztucznej inteligencji, uniemożliwiając wdrażanie nieautoryzowanych lub naruszonych modeli.
Rozważ użycie bramy sztucznej inteligencji.Usługa Azure API Management (APIM) może pomóc zapewnić spójne zabezpieczenia obciążeń sztucznej inteligencji. Użyj wbudowanych zasad na potrzeby kontroli ruchu i wymuszania zabezpieczeń. Integrowanie usługi APIM z identyfikatorem Entra firmy Microsoft w celu scentralizowanego uwierzytelniania i autoryzacji oraz zapewnia, że tylko autoryzowani użytkownicy lub aplikacje wchodzą w interakcje z modelami sztucznej inteligencji. Upewnij się, że na tożsamości zarządzanej zwrotnego serwera proxy skonfigurowana jest najmniejsza dostęp z uprawnieniami. Aby uzyskać więcej informacji, zobacz Uwierzytelnianie sztucznej inteligencji za pomocą usługi APIM
Bezpieczny dostęp do sztucznej inteligencji
Zabezpieczanie dostępu do sztucznej inteligencji obejmuje ustanawianie mechanizmów kontroli uwierzytelniania i autoryzacji zarówno dla płaszczyzny zarządzania, jak i zewnętrznego dostępu do zasobów sztucznej inteligencji. Właściwe zarządzanie dostępem ogranicza użycie zasobów tylko do użytkowników z zweryfikowanymi uprawnieniami. Zmniejsza prawdopodobieństwo nieautoryzowanych interakcji z modelami sztucznej inteligencji. Silne mechanizmy kontroli dostępu, takie jak dostęp oparty na rolach i zasady dostępu warunkowego, pomagają chronić poufne dane i zachować zgodność ze standardami zabezpieczeń.
Organizowanie zasobów i kontroli dostępu. Używanie odrębnych obszarów roboczych do organizowania artefaktów sztucznej inteligencji, takich jak zestawy danych, modele i eksperymenty, oraz zarządzanie nimi. Obszary robocze centralizują zarządzanie zasobami i upraszczają kontrolę dostępu. Na przykład użyj projektów w usłudze Azure AI Foundry, aby efektywnie zarządzać zasobami i uprawnieniami, ułatwiając współpracę przy zachowaniu granic zabezpieczeń.
Użyj identyfikatora Entra firmy Microsoft do uwierzytelniania. Jeśli to możliwe, należy wyeliminować statyczne klucze interfejsu API na rzecz identyfikatora Entra firmy Microsoft na potrzeby uwierzytelniania. Ten krok zwiększa bezpieczeństwo poprzez scentralizowane zarządzanie tożsamościami i zmniejsza obciążenie związane z zarządzaniem wpisami tajnymi. Ogranicz również dystrybucję kluczy interfejsu API. Zamiast tego preferuj tożsamości w identyfikatorze Entra firmy Microsoft za pośrednictwem kluczy interfejsu API na potrzeby uwierzytelniania. Przeprowadź inspekcję listy osób z dostępem klucza interfejsu API, aby upewnić się, że jest on aktualny. Aby uzyskać wskazówki dotyczące uwierzytelniania, zobacz azure AI Foundry, Azure OpenAI, usług Azure AI, azure Machine Learning.
Konfigurowanie uwierzytelniania. Włącz uwierzytelnianie wieloskładnikowe (MFA) i preferuj pomocnicze konta administracyjne lub dostęp just in time z usługą Privileged Identity Management (PIM) dla kont poufnych. Ogranicz dostęp do płaszczyzny sterowania przy użyciu usług takich jak Azure Bastion jako bezpieczne punkty wejścia do sieci prywatnych.
Użyj zasad dostępu warunkowego. Zaimplementuj oparte na ryzyku zasady dostępu warunkowego, które reagują na nietypowe działania logowania lub podejrzane zachowanie. Użyj sygnałów, takich jak lokalizacja użytkownika, stan urządzenia i zachowanie logowania, aby wyzwolić dodatkowe kroki weryfikacji. Wymagaj uwierzytelniania wieloskładnikowego na potrzeby uzyskiwania dostępu do krytycznych zasobów sztucznej inteligencji w celu zwiększenia bezpieczeństwa. Ogranicz dostęp do infrastruktury sztucznej inteligencji na podstawie lokalizacji geograficznych lub zaufanych zakresów adresów IP. Upewnij się, że tylko zgodne urządzenia (spełniające wymagania dotyczące zabezpieczeń) mogą uzyskiwać dostęp do zasobów sztucznej inteligencji.
Skonfiguruj dostęp z najmniejszymi uprawnieniami. Skonfiguruj dostęp z najmniejszymi uprawnieniami, implementując kontrolę dostępu opartą na rolach (RBAC), aby zapewnić minimalny dostęp do danych i usług. Przypisz role do użytkowników i grup na podstawie ich obowiązków. Kontrola dostępu oparta na rolach platformy Azure umożliwia dostosowanie kontroli dostępu do określonych zasobów, takich jak maszyny wirtualne i konta magazynu. Upewnij się, że użytkownicy mają tylko minimalny poziom dostępu niezbędny do wykonywania swoich zadań. Regularne przeglądanie i dostosowywanie uprawnień, aby zapobiec pełzaniu uprawnień. Na przykład:
Rola Przykładowe uprawnienia Badacze danych Dostęp do odczytu/zapisu do magazynu danych, uprawnienia do uruchamiania zadań szkoleniowych i dostępu do środowisk trenowania modelu. Deweloperzy sztucznej inteligencji Dostęp do środowisk deweloperskich, uprawnień wdrażania i możliwości modyfikowania aplikacji sztucznej inteligencji. Administratorzy IT Pełny dostęp do zarządzania infrastrukturą, konfiguracjami sieci i zasadami zabezpieczeń. Zabezpieczanie interakcji między usługami platformy Azure. Użyj tożsamości zarządzanej , aby umożliwić usługom platformy Azure uwierzytelnianie się nawzajem bez zarządzania poświadczeniami.
Zabezpieczanie dostępu zewnętrznego do punktów końcowych modelu sztucznej inteligencji. Wymagaj od klientów uwierzytelniania przy użyciu identyfikatora Entra firmy Microsoft podczas uzyskiwania dostępu do punktów końcowych modelu AI. Rozważ użycie usługi Azure API Management jako bramy sztucznej inteligencji przed punktami końcowymi modelu AI, aby wymusić zasady dostępu, kontrolować użycie i zapewniać możliwości monitorowania.
Bezpieczne wykonywanie sztucznej inteligencji
Zabezpieczanie wykonywania sztucznej inteligencji obejmuje zabezpieczenie procesów, za pomocą których agenci sztucznej inteligencji, tacy jak asystenci wirtualni lub agenci autonomiczni, uruchamiają kod w odpowiedzi na żądania użytkowników. Izolowanie środowisk wykonywania, przeprowadzanie przeglądów kodu i ustawianie limitów zasobów. Te środki pomagają zagwarantować, że te wykonania nie zagrażają stabilności ani bezpieczeństwu systemu. Te rozwiązania uniemożliwiają złośliwe działania i chronią integralność systemów, w których działają agenci sztucznej inteligencji, umożliwiając im niezawodne działanie w bezpiecznej strukturze.
Implementowanie mechanizmów izolacji. Korzystaj z dynamicznego zarządzania sesjami, takiego jak sesje dynamiczne w usłudze Azure Container Apps, aby upewnić się, że każde wykonanie kodu odbywa się w nowym, izolowanym środowisku, które jest niszczone po użyciu.
Bezpieczny kod wykonywania. Przed wdrożeniem skryptów na potrzeby wykonywania przez agentów sztucznej inteligencji należy przeprowadzić dokładne przeglądy kodu i testowanie. Ten proces pomaga identyfikować i ograniczać potencjalne luki w zabezpieczeniach. Użyj systemów kontroli wersji, aby zarządzać zmianami kodu i upewnić się, że są wykonywane tylko zatwierdzone wersje skryptów.
Zaimplementuj limity zasobów. Ustaw limity zasobów (procesor CPU, pamięć, użycie dysku) dla środowisk wykonywania kodu, aby zapobiec nadmiernemu wykorzystaniu zasobów przez pojedyncze wykonanie i potencjalnie zakłócaniu innych usług. Zdefiniuj limity czasu wykonywania, aby zapewnić automatyczne zakończenie długotrwałych lub potencjalnie zablokowanych procesów.
Aby uzyskać więcej informacji, zobacz How to create Assistants with Azure OpenAI Service , How to use Azure OpenAI Assistants function calling , and Agent implementation (Jak używać funkcji Asystentów OpenAI platformy Azure wywołujących i implementację agenta).