Freigeben über


Sicherheitsempfehlungen für KI-Workloads in Azure

Dieser Artikel enthält Sicherheitsempfehlungen für Organisationen, die KI-Workloads (künstliche Intelligenz) in Azure ausführen. Im Vordergrund stehen Azure KI-Platform-as-a-Service (PaaS)-Lösungen, einschließlich Azure KI Studio, Azure OpenAI, Azure Machine Learning und Azure KI Services. Behandelt werden sowohl generative als auch nicht generative KI-Workloads.

Da KI stärker in Geschäftsvorgänge integriert wird, ist der Schutz dieser Ressourcen vor potenziellen Bedrohungen entscheidend, um die Datenintegrität und Compliance aufrechtzuerhalten. Das Anwenden standardisierter Sicherheitsbaselines und das Befolgen gut strukturierter Frameworks hilft Organisationen dabei, ihre KI-Infrastruktur vor Sicherheitsrisiken zu schützen.

Schützen von KI-Ressourcen

Das Sichern von KI-Ressourcen bedeutet, Sicherheitsbaselines und Best Practices zum Schutz der Infrastruktur anzuwenden, die für KI-Workloads in Azure verwendet wird. Dieser Schutz minimiert Risiken durch externe Bedrohungen und sorgt für einen konsistenten Sicherheitsstatus in der gesamten Organisation.

Sichern Sie Azure KI-Plattformen. Standardisieren Sie die Anwendung von Azure-Sicherheitsbaselines für jede KI-Ressource. Befolgen Sie die Sicherheitsempfehlungen in den Leitfäden für Azure-Dienste im Azure Well-Architected Framework.

Sicherheitsbaseline der Azure KI-Plattform Leitfaden zum Azure Well-Architected Framework
Azure Machine Learning Azure Machine Learning
Azure KI Studio
Azure OpenAI Azure OpenAI

Sichern der KI-Modelle

Das Schützen von KI-Modellen bezieht sich auf die Implementierung des Bedrohungsschutzes, die Überwachung auf Risiken durch Prompt-Injection-Angriffe, die Überprüfung der Modellintegrität und die zentrale Governance. Diese Methoden sorgen dafür, dass KI-Modelle vor böswilliger Manipulation geschützt werden, zuverlässig bleiben und genaue Ergebnisse liefern.

  • Implementieren des Bedrohungsschutzes für alle KI-Modelle. Verwenden Sie Microsoft Defender for Cloud, um KI-Modelle vor Bedrohungen wie Prompt-Injection-Angriffen und Modellmanipulation zu schützen. Dieses Tool bietet eine kontinuierliche Überwachung von KI-Workloads und hilft dabei, aufkommende Bedrohungen zu erkennen und zu verhindern. Durch die Implementierung dieses Schutzes über alle Workloads hinweg wird ein konsistenter Sicherheitsstatus in der gesamten Organisation sichergestellt.

  • Überwachen von Ausgaben und Anwenden von Prompt Shields. Überprüfen Sie regelmäßig die von KI-Modellen zurückgegebenen Daten, um Risiken zu erkennen und zu mindern, die mit böswilligen oder unvorhersehbaren Benutzereingaben verbunden sind. Implementieren Sie Prompt Shields, um Texte auf potenzielle Angriffe auf generative Kl-Modelle durch Benutzereingaben zu scannen.

  • Sicherstellen der Modellüberprüfung. Richten Sie unternehmensweite Verifizierungsmechanismen ein, um sicherzustellen, dass alle verwendeten KI-Modelle legitim und sicher sind. Wenn Sie Open-Source-Modelle verwenden, nutzen Sie Modellsignaturen oder andere Verifizierungsprozesse, um die Authentizität von KI-Modellen zu bestätigen. So können Sie verhindern, dass nicht autorisierte oder manipulierte Modelle bereitgestellt werden.

  • Erwägen der Verwendung eines KI-Gateways ´´. Azure API Management (APIM) kann dazu beitragen, eine konsistente Sicherheit für KI-Workloads sicherzustellen. Verwenden Sie die integrierten Richtlinien für die Steuerung des Datenverkehrs und die Sicherheitserzwingung. Integrieren Sie APIM in Microsoft Entra ID, um die Authentifizierung und Autorisierung zu zentralisieren und sicherzustellen, dass nur autorisierte Benutzer oder Anwendungen mit Ihren KI-Modellen interagieren. Konfigurieren Sie für die verwaltete Identität des Reverseproxys den Zugriff mit den geringsten Rechten. Weitere Informationen finden Sie unter KI-Authentifizierung mit APIM.

Sicherer KI-Zugriff

Die Sicherung des KI-Zugriffs umfasst das Einrichten von Authentifizierungs- und Autorisierungskontrollen sowohl auf Verwaltungsebene als auch für den externen Zugriff auf KI-Ressourcen. Die ordnungsgemäße Zugriffsverwaltung schränkt die Ressourcennutzung nur auf Benutzer mit verifizierten Berechtigungen ein. Sie verringert die Wahrscheinlichkeit von nicht autorisierten Interaktionen mit KI-Modellen. Starke Zugriffskontrollen, z. B. rollenbasierter Zugriff und Richtlinien für bedingten Zugriff, tragen zum Schutz vertraulicher Daten bei und Sie erhalten Unterstützung bei der Einhaltung von Sicherheitsstandards.

  • Organisieren von Ressourcen und Zugriffskontrollen. Verwenden Sie getrennte Arbeitsbereiche, um KI-Artefakte wie Datasets, Modelle und Experimente zu organisieren und zu verwalten. Arbeitsbereiche zentralisieren die Ressourcenverwaltung und vereinfachen die Zugriffssteuerung. Verwenden Sie beispielsweise Projekte in Azure KI Studio, um Ressourcen und Berechtigungen effizient zu verwalten. Das erleichtert die Zusammenarbeit, während gleichzeitig Sicherheitsgrenzen beibehalten werden.

  • Verwenden Sie Microsoft Entra ID für die Authentifizierung. Ersetzen Sie nach Möglichkeit statische API-Schlüssel durch die Microsoft Entra ID für die Authentifizierung. Dieser Schritt verbessert die Sicherheit durch zentralisierte Identitätsverwaltung und reduziert den Verwaltungsaufwand für die Geheimnisverwaltung. Beschränken Sie auch die Verteilung von API-Schlüsseln. Bevorzugen Sie stattdessen Identitäten in Microsoft Entra ID gegenüber API-Schlüsseln zur Authentifizierung. Überwachen Sie die Liste der Personen mit API-Schlüsselzugriff, um sicherzustellen, dass sie aktuell ist. Anleitungen zur Authentifizierung finden Sie unter Azure KI Studio, Azure OpenAI, Azure KI Services, Azure Machine Learning.

  • Konfigurieren Sie die Authentifizierung. Aktivieren Sie die Multi-Faktor-Authentifizierung (MFA), und bevorzugen Sie sekundäre Administratorkonten oder den Just-in-Time-Zugriff mit Privileged Identity Management (PIM) für vertrauliche Konten. Beschränken Sie den Zugriff auf die Steuerungsebene mithilfe von Diensten wie Azure Bastion als sichere Einstiegspunkte in private Netzwerke.

  • Richtlinien für bedingten Zugriff verwenden. Implementieren Sie risikobasierte Richtlinien für bedingten Zugriff, die auf ungewöhnliche Anmeldeaktivitäten oder verdächtiges Verhalten reagieren. Verwenden Sie Signale wie Benutzerstandort, Gerätestatus und Anmeldeverhalten, um zusätzliche Überprüfungsschritte auszulösen. Erzwingen Sie die MFA für den Zugriff auf kritische KI-Ressourcen, um die Sicherheit zu verbessern. Schränken Sie den Zugriff auf die KI-Infrastruktur basierend auf geografischen Standorten oder vertrauenswürdigen IP-Adressbereichen ein. Stellen Sie sicher, dass nur kompatible Geräte (die die Sicherheitsanforderungen erfüllen) auf KI-Ressourcen zugreifen können.

  • Konfigurieren des Zugriffs mit den geringsten Rechten. Konfigurieren Sie den Zugriff mit den geringsten Rechten, indem Sie die rollenbasierte Zugriffssteuerung (RBAC) implementieren, um minimalen Zugriff auf Daten und Dienste zu ermöglichen. Weisen Sie Benutzern und Gruppen Rollen basierend auf ihren Zuständigkeiten zu. Verwenden Sie Azure RBAC, um die Zugriffssteuerung für bestimmte Ressourcen wie virtuelle Computer und Speicherkonten zu optimieren. Stellen Sie sicher, dass Benutzer nur über den erforderlichen Mindestzugriff verfügen, die zum Ausführen ihrer Aufgaben erforderlich ist. Überprüfen Sie die Berechtigungen regelmäßig, um eine schleichende Berechtigungsausweitung zu verhindern, und passen Sie die Berechtigungen ggf. an. Beispiel:

    Role Beispiel für Berechtigungen
    Wissenschaftliche Fachkräfte für Daten Lese-/Schreibzugriff auf Datenspeicher, Berechtigung zum Ausführen von Trainingsaufträgen und Zugriff auf Umgebungen zum Trainieren von Modellen.
    KI-Entwickler Zugriff auf Entwicklungsumgebungen, Bereitstellungsberechtigungen und die Möglichkeit, KI-Anwendungen zu ändern.
    IT-Administratoren Vollzugriff auf die Verwaltung von Infrastruktur, Netzwerkkonfigurationen und Sicherheitsrichtlinien.
  • Sichere Azure Service-to-Service-Interaktionen. Verwenden Sie eine verwaltete Identität, damit Azure-Dienste sich gegenseitig authentifizieren können, ohne Anmeldeinformationen zu verwalten.

  • Sicherer externer Zugriff auf KI-Modell-Endpunkte. Clients müssen sich beim Zugriff auf KI-Modell-Endpunkte mithilfe der Microsoft Entra ID authentifizieren. Erwägen Sie die Verwendung von Azure API Management als KI-Gateway vor KI-Modell-Endpunkten, um Zugriffsrichtlinien zu erzwingen, die Nutzung zu kontrollieren und Überwachungsfunktionen bereitzustellen.

Sichere KI-Ausführung

Die Sicherung der KI-Ausführung beinhaltet die Sicherung der Prozesse, mit denen KI-Agents, etwa virtuelle Assistants oder autonome Agents, Code als Reaktion auf Benutzeranforderungen ausführen. Isolieren Sie die Ausführungsumgebungen, führen Sie Codeüberprüfungen durch, und legen Sie Ressourcenlimits fest. Diese Maßnahmen tragen dazu bei, dass diese Ausführungen weder die Systemstabilität noch die Sicherheit gefährden. Diese Methoden verhindern böswillige Aktivitäten und schützen die Integrität der Systeme, in denen KI-Agenten verwendet werden, sodass sie zuverlässig innerhalb eines sicheren Frameworks funktionieren können.

  • Implementieren von Isolationsmechanismen. Verwenden Sie die dynamische Sitzungsverwaltung, etwa dynamische Sitzungen in Azure Container Apps, um sicherzustellen, dass jede Codeausführung in einer neuen, isolierten Umgebung auftritt, die nach der Verwendung zerstört wird.

  • Sicherer Ausführungscode. Führen Sie gründliche Codeüberprüfungen und Tests durch, bevor Sie Skripts für die Ausführung durch KI-Agents bereitstellen. Dieser Prozess hilft dabei, potenzielle Sicherheitsrisiken zu erkennen und zu mindern. Verwenden Sie Versionssteuerungssysteme, um Codeänderungen zu verwalten und sicherzustellen, dass nur genehmigte Versionen von Skripts ausgeführt werden.

  • Implementieren von Ressourcenlimits. Legen Sie Ressourcenlimits (CPU, Arbeitsspeicher, Datenträgerauslastung) für Codeausführungsumgebungen fest, um zu verhindern, dass eine einzelne Ausführung übermäßige Ressourcen verbraucht, sodass möglicherweise andere Dienste gestört werden. Definieren Sie Ausführungstimeouts, um sicherzustellen, dass lang ausgeführte Prozesse oder möglicherweise blockierte Prozesse automatisch beendet werden.

Weitere Informationen finden Sie unter Erstellen von Assistenten mit Azure OpenAI Service, Verwenden von Azure OpenAI-Assistenten und Funktionsaufrufen in JavaScript und Agent-Implementierung.

Nächster Schritt