Ochrona sztucznej inteligencji przy użyciu zasad dostępu warunkowego
Generacyjne usługi sztucznej inteligencji (AI), takie jak Microsoft Security Copilot i Microsoft 365 Copilot, gdy są używane odpowiednio przynieść wartość organizacji. Ochronę tych usług przed nieprawidłowym użyciem można osiągnąć przy użyciu istniejących funkcji, takich jak zasady dostępu warunkowego firmy Microsoft Entra.
Zastosowanie zasad dostępu warunkowego do tych usług generowania sztucznej inteligencji można wykonać za pomocą istniejących zasad przeznaczonych dla wszystkich użytkowników, ryzykownych użytkowników lub logujących się oraz użytkowników z ryzykiem poufnym.
W tym artykule przedstawiono sposób określania celu określonych usług generowania sztucznej inteligencji, takich jak Microsoft Security Copilot i Microsoft 365 Copilot na potrzeby wymuszania zasad.
Tworzenie docelowych jednostek usługi przy użyciu programu PowerShell
Aby indywidualnie kierować te usługi generowania sztucznej inteligencji, organizacje muszą utworzyć następujące jednostki usługi, aby były dostępne w selektorze aplikacji dostępu warunkowego. W poniższych krokach pokazano, jak dodać te jednostki usługi przy użyciu polecenia cmdlet New-MgServicePrincipal , części zestawu MICROSOFT Graph PowerShell SDK.
# Connect with the appropriate scopes to create service principals
Connect-MgGraph -Scopes "Application.ReadWrite.All"
# Create service principal for the service Enterprise Copilot Platform (Microsoft 365 Copilot)
New-MgServicePrincipal -AppId fb8d773d-7ef8-4ec0-a117-179f88add510
# Create service principal for the service Security Copilot (Microsoft Security Copilot)
New-MgServicePrincipal -AppId bb5ffd56-39eb-458c-a53a-775ba21277da
Tworzenie zasad dostępu warunkowego
Jako organizacja przyjmująca usługi, takie jak Microsoft 365 Copilot i Microsoft Security Copilot, chcesz zapewnić dostęp tylko tym użytkownikom, którzy spełniają twoje wymagania dotyczące zabezpieczeń. Na przykład:
- Wszyscy użytkownicy usług generacyjnych sztucznej inteligencji muszą ukończyć uwierzytelnianie wieloskładnikowe odporne na wyłudzenie informacji
- Wszyscy użytkownicy usług generacyjnych sztucznej inteligencji muszą uzyskiwać dostęp ze zgodnego urządzenia, gdy ryzyko wewnętrzne jest umiarkowane
- Wszyscy użytkownicy usług generacyjnych sztucznej inteligencji są blokowani, gdy podwyższono poziom ryzyka wewnętrznego
Napiwek
Następujące zasady dostępu warunkowego są przeznaczone dla środowisk autonomicznych, a nie osadzonych.
Wykluczenia użytkowników
Zasady dostępu warunkowego są zaawansowanymi narzędziami. Zalecamy wykluczenie następujących kont z zasad:
- Dostęp awaryjny lub konta ze szkła awaryjnego, aby zapobiec zablokowaniu z powodu błędnej konfiguracji zasad. W mało prawdopodobnym scenariuszu wszyscy administratorzy są zablokowani, konto administracyjne dostępu awaryjnego może służyć do logowania się i podjęcia kroków w celu odzyskania dostępu.
- Więcej informacji można znaleźć w artykule Zarządzanie kontami dostępu awaryjnego w usłudze Microsoft Entra ID.
- Konta usług i jednostki usługi, takie jak konto synchronizacji programu Microsoft Entra Connect. Konta usług to konta nieinterakcyjne, które nie są powiązane z żadnym konkretnym użytkownikiem. Są one zwykle używane przez usługi zaplecza i umożliwiają programowy dostęp do aplikacji, ale są również używane do logowania się do systemów w celach administracyjnych. Wywołania wykonywane przez jednostki usługi nie będą blokowane przez zasady dostępu warunkowego ograniczone do użytkowników. Użyj dostępu warunkowego dla tożsamości obciążeń, aby zdefiniować zasady przeznaczone dla jednostek usług.
- Jeśli twoja organizacja ma te konta używane w skryptach lub kodzie, rozważ zastąpienie ich tożsamościami zarządzanymi.
Wszyscy użytkownicy usług generacyjnych sztucznej inteligencji muszą ukończyć uwierzytelnianie wieloskładnikowe odporne na wyłudzenie informacji
Poniższe kroki pomagają utworzyć zasady dostępu warunkowego, aby wymagać od wszystkich użytkowników uwierzytelniania wieloskładnikowego przy użyciu zasad siły uwierzytelniania.
Ostrzeżenie
Jeśli używasz metod uwierzytelniania zewnętrznego, są one obecnie niekompatable z siłą uwierzytelniania i należy użyć kontrolki Wymagaj uwierzytelniania wieloskładnikowego.
- Zaloguj się do centrum administracyjnego Microsoft Entra jako co najmniej Administrator dostępu warunkowego.
- Przejdź do strony Ochrona>zasad dostępu>warunkowego.
- Wybierz pozycję Nowe zasady.
- Nadaj zasadzie nazwę. Zalecamy, aby organizacje tworzyły znaczący standard dla nazw swoich zasad.
- W obszarze Przypisania wybierz pozycję Użytkownicy lub tożsamości obciążeń.
- W obszarze Dołącz wybierz pozycję Wszyscy użytkownicy
- W obszarze Wyklucz wybierz pozycję Użytkownicy i grupy , a następnie wybierz konta awaryjne lub konta awaryjne w organizacji.
- W obszarze Zasoby docelowe>(dawniej aplikacje w chmurze)>Uwzględnij>wybierz pozycję Wybierz zasoby:
- Enterprise Copilot Platform fb8d773d-7ef8-4ec0-a117-179f88add510 (Microsoft 365 Copilot)
- Security Copilot bb5ffd56-39eb-458c-a53a-775ba21277da (Microsoft Security Copilot)
- W obszarze Kontrola>dostępu Udziel wybierz pozycję Udziel dostępu.
- Wybierz pozycję Wymagaj siły uwierzytelniania, a następnie wybierz wbudowaną siłę uwierzytelniania MFA odporną na frazę z listy.
- Wybierz pozycję Wybierz.
- Potwierdź ustawienia i ustaw opcję Włącz zasady na tylko raport.
- Wybierz pozycję Utwórz , aby utworzyć, aby włączyć zasady.
Po potwierdzeniu przez administratorów ustawień w trybie tylko do raportu mogą przenieść przełącznik Włącz zasady z obszaru Tylko raport do pozycji Włączone.
Wszyscy użytkownicy usług generacyjnych sztucznej inteligencji muszą uzyskiwać dostęp ze zgodnego urządzenia, gdy ryzyko wewnętrzne jest umiarkowane
Napiwek
Skonfiguruj ochronę adaptacyjną przed utworzeniem następujących zasad.
Bez zasad zgodności utworzonych w usłudze Microsoft Intune te zasady dostępu warunkowego nie będą działać zgodnie z oczekiwaniami. Najpierw utwórz zasady zgodności i przed kontynuowaniem upewnij się, że masz co najmniej jedno zgodne urządzenie.
- Zaloguj się do centrum administracyjnego Microsoft Entra jako co najmniej Administrator dostępu warunkowego.
- Przejdź do strony Ochrona>zasad dostępu>warunkowego.
- Wybierz pozycję Nowe zasady.
- Nadaj zasadzie nazwę. Zalecamy, aby organizacje tworzyły znaczący standard dla nazw swoich zasad.
- W obszarze Przypisania wybierz pozycję Użytkownicy lub tożsamości obciążeń.
- W obszarze Dołącz wybierz pozycję Wszyscy użytkownicy
- W obszarze Wyklucz:
- Wybierz pozycję Użytkownicy i grupy , a następnie wybierz konta awaryjne lub konta awaryjne w organizacji.
- Wybierz pozycję Goście lub użytkownicy zewnętrzni i wybierz następujące opcje:
- Bezpośrednie połączenie użytkowników B2B.
- Użytkownicy dostawcy usług.
- Inni użytkownicy zewnętrzni.
- W obszarze Zasoby docelowe>(dawniej aplikacje w chmurze)>Uwzględnij>wybierz pozycję Wybierz zasoby:
- Enterprise Copilot Platform fb8d773d-7ef8-4ec0-a117-179f88add510 (Microsoft 365 Copilot)
- Security Copilot bb5ffd56-39eb-458c-a53a-775ba21277da (Microsoft Security Copilot)
- W obszarze Warunki>ryzyko niejawne dla niejawnych testerów ustaw wartość Tak.
- W obszarze Wybierz poziomy ryzyka, które muszą być przypisane, aby wymusić zasady.
- Wybierz pozycję Umiarkowane.
- Wybierz pozycję Gotowe.
- W obszarze Wybierz poziomy ryzyka, które muszą być przypisane, aby wymusić zasady.
- W obszarze Kontrola>dostępu Udziel.
- Wybierz pozycję Wymagaj, aby urządzenie było oznaczone jako zgodne.
- Wybierz pozycję Wybierz.
- Potwierdź ustawienia i ustaw opcję Włącz zasady na tylko raport.
- Wybierz pozycję Utwórz , aby utworzyć, aby włączyć zasady.
Po potwierdzeniu przez administratorów ustawień w trybie tylko do raportu mogą przenieść przełącznik Włącz zasady z obszaru Tylko raport do pozycji Włączone.
Wszyscy użytkownicy usług generacyjnych sztucznej inteligencji są blokowani, gdy podwyższono poziom ryzyka wewnętrznego
Napiwek
Skonfiguruj ochronę adaptacyjną przed utworzeniem następujących zasad.
- Zaloguj się do centrum administracyjnego Microsoft Entra jako co najmniej Administrator dostępu warunkowego.
- Przejdź do strony Ochrona>zasad dostępu>warunkowego.
- Wybierz pozycję Nowe zasady.
- Nadaj zasadzie nazwę. Zalecamy, aby organizacje tworzyły znaczący standard dla nazw swoich zasad.
- W obszarze Przypisania wybierz pozycję Użytkownicy lub tożsamości obciążeń.
- W obszarze Dołącz wybierz pozycję Wszyscy użytkownicy.
- W obszarze Wyklucz:
- Wybierz pozycję Użytkownicy i grupy , a następnie wybierz konta awaryjne lub konta awaryjne w organizacji.
- Wybierz pozycję Goście lub użytkownicy zewnętrzni i wybierz następujące opcje:
- Bezpośrednie połączenie użytkowników B2B.
- Użytkownicy dostawcy usług.
- Inni użytkownicy zewnętrzni.
- W obszarze Zasoby docelowe>(dawniej aplikacje w chmurze)>Uwzględnij>wybierz pozycję Wybierz zasoby:
- Enterprise Copilot Platform fb8d773d-7ef8-4ec0-a117-179f88add510 (Microsoft 365 Copilot)
- Security Copilot bb5ffd56-39eb-458c-a53a-775ba21277da (Microsoft Security Copilot)
- W obszarze Warunki>ryzyko niejawne dla niejawnych testerów ustaw wartość Tak.
- W obszarze Wybierz poziomy ryzyka, które muszą być przypisane, aby wymusić zasady.
- Wybierz pozycję Podwyższony poziom uprawnień.
- Wybierz pozycję Gotowe.
- W obszarze Wybierz poziomy ryzyka, które muszą być przypisane, aby wymusić zasady.
- W obszarze Kontrola>dostępu Udziel wybierz pozycję Blokuj dostęp, a następnie wybierz pozycję Wybierz.
- Potwierdź ustawienia i ustaw opcję Włącz zasady na tylko raport.
- Wybierz pozycję Utwórz , aby utworzyć, aby włączyć zasady.
Po potwierdzeniu przez administratorów ustawień w trybie tylko do raportu mogą przenieść przełącznik Włącz zasady z obszaru Tylko raport do pozycji Włączone.
Powiązana zawartość
- Użyj trybu tylko raportu dla dostępu warunkowego, aby określić wyniki nowych decyzji dotyczących zasad.
- Bezpieczna generowanie sztucznej inteligencji za pomocą firmy Microsoft Entra
- Zabezpieczenia danych i zgodność usługi Microsoft Purview dla generacyjnych aplikacji sztucznej inteligencji
- Zagadnienia dotyczące centrum sztucznej inteligencji usługi Microsoft Purview oraz zabezpieczeń danych i ochrony zgodności dla rozwiązania Copilot
- Stosowanie zasad zerowego zaufania do platformy Microsoft Copilot
- Stosowanie zasad zero trust do platformy Microsoft 365 Copilot
- Stosowanie zasad zerowego zaufania do rozwiązania Microsoft Security Copilot