Bewerten der KI Services-Sicherheit
Diese Lektion enthält eine Zusammenfassung der Empfehlungen des Well-Architected Framework zum Sichern von Azure Open AI
Weitere Informationen finden Sie unter Azure Well-Architected Framework-Perspektive für Azure OpenAI-Dienst
Der Zweck der Säule „Security“ besteht darin, Garantien für die Arbeitsauslastung für Vertraulichkeit, Integrität und Verfügbarkeit bereitzustellen.
Die Prinzipien des Sicherheitsdesigns stellen eine allgemeine Designstrategie für die Erreichung dieser Ziele bereit, indem Ansätze auf das technische Design rund um Azure OpenAI angewendet werden.
Prüfliste für den Entwurf
Starten Sie Ihre Designstrategie basierend auf der Prüfliste für die Designüberprüfung für Sicherheit und identifizieren Sie Sicherheitsrisiken und Kontrollen, um den Sicherheitsstatus zu verbessern. Überprüfen Sie dann die Azure-Sicherheitsbasislinie für Azure OpenAI. Erweitern Sie schließlich die Strategie, um bei Bedarf weitere Ansätze einzuschließen.
Schützen der Vertraulichkeit: Wenn Sie Trainingsdaten in Azure OpenAI hochladen, verwenden Sie vom Kunden verwalteten Schlüssel für die Datenverschlüsselung, implementieren Sie eine Schlüsselrotationsstrategie und Löschen Sie Trainings-, Validierungs- und Trainingsergebnisdaten. Wenn Sie einen externen Datenspeicher für Trainingsdaten verwenden, befolgen Sie die bewährten Sicherheitsmethoden für diesen Speicher. Verwenden Sie bei Azure Blob Storage z. B. vom Kunden verwaltete Schlüssel für die Verschlüsselung und implementieren Sie eine Schlüsselrotationsstrategie. Verwenden Sie verwalteten identitätsbasierten Zugriff, implementieren Sie einen Netzwerkperimeter mithilfe privater Endpunkte und aktivieren Sie Zugriffsprotokolle.
Schützen der Vertraulichkeit: Schützen sie vor Datenexfiltration, indem Sie die ausgehenden URLs einschränken, auf die Azure OpenAI-Ressourcen zugreifen können.
Schützen der Integrität: Implementieren Sie Zugriffssteuerungen, um den Benutzerzugriff auf das System zu authentifizieren und zu autorisieren, indem Sie das Prinzip der geringsten Rechte und die Verwendung einzelner Identitäten anstelle von Schlüsseln verwenden.
Schützen der Integrität: Implementieren Sie die Jailbreak-Risikoerkennung, um Ihre Sprachmodellbereitstellungen vor Einfügungsangriffen zu schützen.
Schützen der Verfügbarkeit: Verwenden Sie Sicherheitssteuerelemente, um Angriffe zu verhindern, welche die Nutzungskontingente des Modells ausschöpfen könnten. Sie können Steuerelemente konfigurieren, um den Dienst in einem Netzwerk zu isolieren. Wenn der Dienst über das Internet zugänglich sein muss, sollten Sie ein Gateway verwenden, um verdächtigen Missbrauch mithilfe von Routing oder Drosselung zu blockieren.
Empfehlungen
Empfehlung | Vorteil |
---|---|
Sichere Schlüssel: Wenn Ihre Architektur die schlüsselbasierte Azure OpenAI-Authentifizierung erfordert, speichern Sie diese Schlüssel im Azure Key Vault, nicht im Anwendungscode. | Das Trennen von Geheimschlüsseln vom Code durch Speichern in Key Vault reduziert die Wahrscheinlichkeit, geheime Schlüssel zu lecken. Die Trennung erleichtert auch die zentrale Verwaltung von Geheimnissen, was Verantwortlichkeiten wie die Schlüsselrotation erleichtert. |
Beschränken des Zugriffs: Deaktivieren Sie den öffentlichen Zugriff auf Azure OpenAI, es sei denn, Ihre Workload erfordert ihn. Erstellen Sie private Endpunkte, wenn Sie eine Verbindung mit Verbrauchern in einem virtuellen Azure-Netzwerk herstellen. | Durch die Steuerung des Zugriffs auf Azure OpenAI können Angriffe von nicht autorisierten Benutzern verhindert werden. Durch die Verwendung privater Endpunkte wird sichergestellt, dass der Netzwerkdatenverkehr zwischen der Anwendung und der Plattform privat bleibt. |
Microsoft Entra ID: Verwenden Sie Microsoft Entra ID für die Authentifizierung und zum Autorisieren des Zugriffs auf Azure OpenAI mithilfe der rollenbasierten Zugriffssteuerung (RBAC). Deaktivieren Sie die lokale Authentifizierung in Azure KI Services und legen Sie disableLocalAuth auf true fest. Gewähren Sie Identitäten, welche Vervollständigung und Image-Generation durchführen, die Rolle Cognitive Services OpenAI User. Gewähren sie Modellautomatisierungspipelines und Ad-hoc-Data-Science Zugriff auf eine Rolle wie Cognitive Services OpenAI Contributor. |
Die Verwendung von Microsoft Entra ID zentralisiert die Identitätsverwaltungskomponente und beseitigt die Verwendung von API-Schlüsseln. Durch die Verwendung von RBAC mit Microsoft Entra ID wird sichergestellt, dass Benutzer oder Gruppen genau über die Berechtigungen verfügen, die sie für ihre Arbeit benötigen. Diese Art von feinkörniger Zugriffssteuerung ist mit Azure OpenAI-API-Schlüsseln nicht möglich. |
Verwenden kundenseitig verwalteter Schlüssel: Verwenden Sie vom Kunden verwaltete Schlüssel für fein abgestimmte Modelle und Trainingsdaten, die in Azure OpenAI hochgeladen werden. | Die Verwendung von kundenseitig verwalteten Schlüsseln bietet größere Flexibilität beim Erstellen, Rotieren, Deaktivieren und Widerrufen von Zugriffssteuerungen. |
Schutz vor Jailbreak-Angriffen: Verwenden Sie das Azure KI Inhaltssicherheitsstudio, um Jailbreak-Risiken zu erkennen. | Erkennen Sie Jailbreak-Versuche zur Identifizierung und blockieren Sie Eingabeaufforderungen, die versuchen, die Sicherheitsmechanismen Ihrer Azure OpenAI-Bereitstellungen zu umgehen. |