Freigeben über


Verantwortungsvolle KI in Azure-Workloads

Das Ziel der Verantwortungs-KI im Workload-Design besteht darin, sicherzustellen, dass die Verwendung von KI-Algorithmen fair, transparent und inklusive ist. Gut durchdachte Sicherheitsprinzipien stehen im Zusammenhang mit dem Fokus auf Vertraulichkeit und Integrität. Sicherheitsmaßnahmen müssen eingerichtet sein, um die Privatsphäre des Benutzers aufrechtzuerhalten, Daten zu schützen und die Integrität des Designs zu schützen, die nicht für unbeabsichtigte Zwecke missbraucht werden sollten.

In KI-Workloads werden Entscheidungen von Modellen getroffen, die häufig undurchsichtige Logik verwenden. Die Benutzer sollten der Funktionalität des Systems vertrauen und sicher sein, dass Entscheidungen verantwortungsbewusst getroffen werden. Unethische Verhaltensweisen, z. B. Manipulation, Inhaltstoxizität, IP-Verstöße und hergestellte Reaktionen, müssen vermieden werden.

Erwägen Sie einen Anwendungsfall, in dem ein Medienunterhaltungsunternehmen Empfehlungen mithilfe von KI-Modellen bereitstellen möchte. Das Scheitern der Implementierung verantwortungsvoller KI und der richtigen Sicherheit kann zu einem schlechten Akteur führen, der die Kontrolle über die Modelle übernimmt. Das Modell kann Potenziell Medieninhalte empfehlen, die zu schädlichen Ergebnissen führen können. Für die Organisation kann dieses Verhalten zu Markenschäden, unsicheren Umgebungen und rechtlichen Problemen führen. Daher ist die Aufrechterhaltung ethischer Wachsamkeit während des gesamten Lebenszyklus des Systems unerlässlich und nicht verhandelbar.

Ethische Entscheidungen sollten die Sicherheits- und Arbeitsauslastungsverwaltung mit menschlichen Ergebnissen priorisieren. Machen Sie sich mit dem Verantwortlichen KI-Framework von Microsoft vertraut, und stellen Sie sicher, dass die Prinzipien in Ihrem Design widerspiegelt und gemessen werden. Diese Abbildung zeigt die Kernkonzepte des Frameworks.

Diagramm, das das Microsoft Responsible AI Framework zeigt.

Wichtig

Die Genauigkeit der Vorhersage und verantwortlicher KI-Metriken ist häufig miteinander verbunden. Die Verbesserung der Genauigkeit eines Modells kann seine Fairness und Ausrichtung an der Realität verbessern. Während ethische KI jedoch häufig mit Genauigkeit übereinstimmt, umfasst die Genauigkeit allein nicht alle ethischen Überlegungen. Es ist von entscheidender Bedeutung, diese ethischen Prinzipien verantwortungsbewusst zu überprüfen.

Dieser Artikel enthält Empfehlungen zur ethischen Entscheidungsfindung, zur Überprüfung von Benutzereingaben und zur Sicherstellung einer sicheren Benutzererfahrung. Außerdem enthält sie Anleitungen zur Datensicherheit, um sicherzustellen, dass Benutzerdaten geschützt sind.

Empfehlungen

Hier ist die Zusammenfassung der Empfehlungen in diesem Artikel.

Empfehlung Beschreibung
Entwickeln Sie Richtlinien, die ethische Praktiken in jeder Phase des Lebenszyklus durchsetzen. Fügen Sie Checklistenelemente hinzu, die ethische Anforderungen explizit angeben, die auf den Arbeitsauslastungskontext zugeschnitten sind. Beispiele hierfür sind Transparenz der Benutzerdaten, Zustimmungskonfiguration und Verfahren zur Behandlung des "Rechts auf Vergessenwerden".

Entwickeln Ihrer verantwortlichen KI-Richtlinien
Erzwingen von Governance für verantwortungsvolle KI-Richtlinien
Schützen Sie Benutzerdaten mit dem Ziel, den Datenschutz zu maximieren. Sammeln Sie nur das, was erforderlich ist und mit der richtigen Zustimmung des Benutzers. Wenden Sie technische Steuerelemente an, um Benutzerprofile, ihre Daten und den Zugriff auf diese Daten zu schützen.

Ethische Behandlung von Benutzerdaten
Überprüfen eingehender und ausgehender Daten
Halten Sie KI-Entscheidungen klar und verständlich. Halten Sie klare Erklärungen darüber, wie Empfehlungsalgorithmen funktionieren, und bieten Benutzern Einblicke in die Datennutzung und die algorithmische Entscheidungsfindung, um sicherzustellen, dass sie den Prozess verstehen und vertrauen.

Sorgen Sie dafür, dass die Benutzererfahrung sicher ist

Entwickeln von verantwortungsvollen KI-Richtlinien

Dokumentieren Sie Ihren Ansatz für die ethische und verantwortungsvolle KI-Nutzung. Explizite Zustandsrichtlinien, die in jeder Phase des Lebenszyklus angewendet werden, damit das Workloadteam ihre Verantwortlichkeiten versteht. Während die Verantwortlichen KI-Standards von Microsoft Richtlinien enthalten, müssen Sie definieren, was diese speziell für Ihren Kontext bedeuten.

Beispielsweise sollten die Richtlinien Prüflistenelemente für Mechanismen rund um die Benutzerdatentransparenz und zustimmungskonfiguration enthalten, sodass Benutzer die Dateneinschlussliste deaktivieren können. Datenpipelinen, Analysen, Modellschulungen und andere Phasen müssen diese Auswahl respektieren. Ein weiteres Beispiel sind Verfahren zum Umgang mit dem "Recht auf Vergessenwerden". Wenden Sie sich an die Ethikabteilung und das Rechtsteam Ihrer Organisation, um fundierte Entscheidungen zu treffen.

Erstellen Sie transparente Richtlinien für die Datennutzung und die algorithmische Entscheidungsfindung, um sicherzustellen, dass Benutzer den Prozess verstehen und vertrauen. Dokumentieren Sie diese Entscheidungen, um eine klare Geschichte für potenzielle zukünftige Rechtsstreitigkeiten beizubehalten.

Die Implementierung ethischer KI umfasst drei Schlüsselrollen: das Forschungsteam, das Richtlinienteam und das Entwicklungsteam. Die Zusammenarbeit zwischen diesen Teams sollte operationalisiert werden. Wenn Ihre Organisation über ein vorhandenes Team verfügt, nutzen Sie ihre Arbeit; andernfalls richten Sie diese Praktiken selbst ein.

Haben Sie Rechenschaftspflicht bei der Trennung von Aufgaben:

  • Das Forschungsteam führt die Risikoermittlung durch Beratung von Organisationsrichtlinien, Branchenstandards, Gesetzen, Vorschriften und bekannten roten Teamtaktiken durch.

  • Das Richtlinienteam entwickelt Richtlinien speziell für die Arbeitsauslastung, wobei Richtlinien aus der übergeordneten Organisation und behördlichen Vorschriften enthalten sind.

  • Das Entwicklungsteam implementiert die Richtlinien in ihre Prozesse und Lieferumfang, um sicherzustellen, dass sie die Einhaltung überprüfen und testen.

Jedes Team formalisiert seine Richtlinien, aber das Workloadteam muss für seine eigenen dokumentierten Praktiken verantwortlich sein. Das Team sollte alle zusätzlichen Schritte oder absichtlichen Abweichungen eindeutig dokumentieren, um sicherzustellen, dass es keine Mehrdeutigkeit darüber gibt, was erlaubt ist. Seien Sie auch transparent über potenzielle Mängel oder unerwartete Ergebnisse in der Lösung.

Erzwingen von Governance für verantwortungsvolle KI-Richtlinien

Entwerfen Sie Ihre Arbeitsauslastung so, dass sie die Organisations- und Regulierungsgovernance erfüllt. Wenn z. B. Transparenz eine organisationsweite Anforderung ist, bestimmen Sie, wie sie auf Ihre Arbeitsauslastung angewendet wird. Identifizieren Sie Bereiche in Ihrem Design, Lebenszyklus, Code oder anderen Komponenten, in denen Transparenzfeatures eingeführt werden sollten, um diesen Standard zu erfüllen.

Grundlegendes zu den erforderlichen Governance-, Verantwortlichkeits-, Prüfgremien- und Berichtspflichten. Stellen Sie sicher, dass Arbeitsauslastungsdesigns von Ihrem Governancerat genehmigt und abgemeldet werden, um Neugestaltungen zu vermeiden und ethische oder Datenschutzbedenken zu vermeiden. Möglicherweise müssen Sie mehrere Genehmigungsebenen durchlaufen. Hier ist eine typische Struktur für Governance.

Diagramm, das eine typische Governancestruktur in einer Organisation zeigt.

Informationen zu Organisationsrichtlinien und Genehmigenden finden Sie unter Cloud Adoption Framework: Definieren einer verantwortungsvollen KI-Strategie.

Sorgen Sie dafür, dass die Benutzererfahrung sicher ist

Benutzererfahrungen sollten auf Branchenrichtlinien basieren. Nutzen Sie die Entwurfsbibliothek der Microsoft Human-AI-Erfahrungen, die Prinzipien enthält, und bietet Implementierungen und Aufgaben mit Beispielen aus Microsoft-Produkten und anderen Branchenquellen.

Es gibt Workload-Verantwortlichkeiten während des gesamten Lebenszyklus der Benutzerinteraktion, beginnend mit der Absicht des Benutzers, das System während einer Sitzung zu verwenden, und Unterbrechungen aufgrund von Systemfehlern. Hier sind einige Methoden, die Sie berücksichtigen sollten:

  • Schaffen Sie Transparenz. Sorgen Sie dafür, wie das System die Antwort auf ihre Abfrage generiert hat.

    Fügen Sie Links zu Datenquellen hinzu, die vom Modell für Vorhersagen konsultiert werden, um das Vertrauen der Benutzer zu verbessern, indem Sie die Ursprünge der Informationen anzeigen. Der Datenentwurf sollte sicherstellen, dass diese Quellen in die Metadaten aufgenommen werden. Wenn der Orchestrator in einer erweiterten Abrufanwendung eine Suche durchführt, ruft er beispielsweise 20 Dokumentblöcke ab und sendet die obersten 10 Blöcke, die zu drei verschiedenen Dokumenten gehören, als Kontext an das Modell. Die Benutzeroberfläche kann dann auf diese drei Quelldokumente verweisen, wenn die Antwort des Modells angezeigt wird, wodurch Transparenz und Benutzervertrauen verbessert werden.

    Transparenz wird bei der Verwendung von Agents wichtiger, die als Vermittler zwischen Front-End-Schnittstellen und Back-End-Systemen fungieren. In einem Ticketsystem interpretiert der Orchestrierungscode beispielsweise die Benutzerabsicht und führt API-Aufrufe an Agents aus, um erforderliche Informationen abzurufen. Durch das Verfügbarmachen dieser Interaktionen kann der Benutzer die Aktionen des Systems kennen.

    Erstellen Sie für automatisierte Workflows mit mehreren Beteiligten Protokolldateien, die jeden Schritt aufzeichnen. Diese Funktion hilft bei der Identifizierung und Behebung von Fehlern. Darüber hinaus kann es Benutzern Erklärungen für Entscheidungen geben, die Transparenz operationalisieren.

    Achtung

    Vermeiden Sie bei der Implementierung von Transparenzempfehlungen, dass der Benutzer zu viele Informationen enthält. Verwenden Sie einen schrittweisen Ansatz, bei dem Sie mit minimal störenden UI-Methoden beginnen.

    Zeigen Sie beispielsweise eine QuickInfo mit einer Konfidenzbewertung aus dem Modell an. Sie können einen Link integrieren, auf den Benutzer klicken können, um weitere Details zu erhalten, z. B. Links zu Quelldokumenten. Diese vom Benutzer initiierte Methode behält die Benutzeroberfläche nicht störend bei und ermöglicht es Benutzern, zusätzliche Informationen nur dann zu suchen, wenn sie sich dafür entscheiden.

  • Sammeln Sie Feedback. Implementieren Sie Feedbackmechanismen.

    Vermeiden Sie nach jeder Antwort umfassende Fragebögen, die Benutzer überwältigen. Verwenden Sie stattdessen einfache, schnelle Feedbackmechanismen wie Daumen nach oben/unten oder Bewertungssysteme für bestimmte Aspekte der Antwort auf einer Skala von 1 bis 5. Diese Methode ermöglicht präzises Feedback, ohne intrusiv zu sein und das System im Laufe der Zeit zu verbessern. Bedenken Sie potenzielle Voreingenommenheiten im Feedback, da es sekundäre Gründe für Benutzerantworten geben kann.

    Die Implementierung eines Feedbackmechanismus wirkt sich auf die Architektur aus, da die Datenspeicherung erforderlich ist. Behandeln Sie dies als Benutzerdaten und wenden Sie bei Bedarf Datenschutzkontrollen an.

    Sammeln Sie zusätzlich zum Feedback Feedback über die Wirksamkeit der Benutzererfahrung. Dies kann durch das Sammeln von Engagement-Metriken über Ihren Überwachungsstapel des Systems erfolgen.

Operationalisieren von Sicherheitsmaßnahmen für Inhalte

Integrieren Sie die Inhaltssicherheit in jede Phase des KI-Lebenszyklus, indem Sie benutzerdefinierten Lösungscode, geeignete Tools und effektive Sicherheitspraktiken verwenden. Hier sind einige Strategien.

  • Daten anonymisierung. Wenn Daten von der Aufnahme in Schulungen oder Auswertungen verschoben werden, haben Sie Prüfungen auf dem Weg, um das Risiko zu minimieren, dass persönliche Informationen verloren gehen und die Gefährdung von Rohbenutzerdaten vermieden wird.

  • Con Zelt-Modus ration. Verwenden Sie die Inhaltssicherheits-API, die Anforderungen und Antworten in Echtzeit auswertet, und stellen Sie sicher, dass diese APIs erreichbar sind.

  • Identifizieren und Mindern von Bedrohungen. Wenden Sie bekannte Sicherheitspraktiken auf Ihre KI-Szenarien an. Führen Sie beispielsweise Bedrohungsmodellierung durch und dokumentieren Sie Bedrohungen und deren Entschärfung. Allgemeine Sicherheitspraktiken wie Red Team-Übungen gelten für KI-Workloads. Rote Teams können testen, ob Modelle bearbeitet werden können, um schädliche Inhalte zu generieren. Diese Aktivitäten sollten in KI-Operationen integriert werden.

    Informationen zum Durchführen von roten Teamtests finden Sie unter Planning red teaming for large language models (LLMs) and their applications.

  • Verwenden Sie die richtigen Metriken. Verwenden Sie geeignete Metriken, die effektiv sind, um das ethische Verhalten des Modells zu messen. Metriken variieren je nach Art des KI-Modells. Die Messung von generativen Modellen kann nicht auf Regressionsmodelle angewendet werden. Betrachten Sie ein Modell, das die Lebenserwartung und die Ergebnisse wirkt sich auf die Versicherungssätze aus. Verzerrungen in diesem Modell können zu ethischen Problemen führen, aber dieses Problem ergibt sich aus der Abweichung in den Kernmetriktests. Die Verbesserung der Genauigkeit kann ethische Probleme reduzieren, da ethische und Genauigkeitsmetriken häufig miteinander verbunden sind.

  • Fügen Sie ethische Instrumente hinzu. Ki-Modellergebnisse müssen zu erklären sein. Sie müssen die Erstellung von Rückschlüssen rechtfertigen und nachverfolgen, einschließlich der für Schulungen verwendeten Daten, der berechneten Features und der Erdungsdaten. Bei diskriminativer KI können Sie Entscheidungen schritt für Schritt rechtfertigen. Für generative Modelle kann die Erläuterung der Ergebnisse jedoch komplex sein. Dokumentieren Sie den Entscheidungsprozess , um potenzielle rechtliche Auswirkungen zu beheben und Transparenz zu schaffen.

    Dieser Erklärungsaspekt sollte während des gesamten KI-Lebenszyklus implementiert werden. Datenreinigung, Linien, Auswahlkriterien und Verarbeitung sind kritische Phasen, in denen Entscheidungen nachverfolgt werden sollten.

Extras

Tools zur Inhaltssicherheit und Datenablaufverfolgung, wie Microsoft Purview, sollten integriert werden. Azure AI Content Safety-APIs können von Ihren Tests aufgerufen werden, um Inhaltssicherheitstests zu erleichtern.

Azure AI Studio stellt Metriken bereit, die das Verhalten des Modells auswerten. Weitere Informationen finden Sie unter Auswertungs- und Überwachungsmetriken für generative KI.

Für Schulungsmodelle empfehlen wir, die von Azure Machine Learning bereitgestellten Metriken zu überprüfen.

Überprüfen eingehender und ausgehender Daten

Eingabeaufforderungsangriffe, z. B. Jailbreaking, sind ein häufiges Problem für KI-Workloads. In diesem Fall können einige Benutzer versuchen, das Modell für unbeabsichtigte Zwecke zu missbrauchen. Um die Sicherheit zu gewährleisten, prüfen Sie Daten, um Angriffe zu verhindern und unangemessene Inhalte herauszufiltern. Diese Analyse sollte sowohl auf die Eingabe des Benutzers als auch auf die Antworten des Systems angewendet werden, um sicherzustellen Zelt-Modus, dass sowohl eingehende als auch ausgehende Flüsse gründliche Übereinstimmungen auftreten.

In Szenarien, in denen Sie mehrere Modellaufrufe vornehmen, z. B. über Azure OpenAI, um eine einzelne Clientanforderung zu erfüllen, kann das Anwenden von Inhaltssicherheitsprüfungen auf jeden Aufruf kostspielig und unnötig sein. Erwägen Sie , die Arbeit in der Architektur zu zentralisieren und gleichzeitig die Sicherheit als serverseitige Verantwortung zu behalten. Angenommen, eine Architektur verfügt über ein Gateway vor dem Modellendpunkt, um bestimmte Back-End-Funktionen auszuschalten. Dieses Gateway kann für die Behandlung von Inhaltssicherheitsprüfungen sowohl für Anforderungen als auch für Antworten konzipiert werden, die das Back-End möglicherweise nicht nativ unterstützt. Während ein Gateway eine gängige Lösung ist, kann eine Orchestrierungsebene diese Aufgaben effektiv in einfacheren Architekturen verarbeiten. In beiden Fällen können Sie diese Prüfungen bei Bedarf selektiv anwenden, um die Leistung und die Kosten zu optimieren.

Inspektionen sollten multimodal sein, die verschiedene Formate abdecken. Bei der Verwendung von multimodalen Eingaben, z. B. Bildern, ist es wichtig, sie auf ausgeblendete Nachrichten zu analysieren, die schädlich oder gewalttätig sein können. Diese Nachrichten sind möglicherweise nicht sofort sichtbar, ähnlich wie unsichtbare Freihandeingaben, und erfordern eine sorgfältige Überprüfung. Verwenden Sie Tools wie Inhaltssicherheits-APIs für diesen Zweck.

Um Datenschutz- und Datensicherheitsrichtlinien zu erzwingen, prüfen Sie Benutzerdaten und Erdungsdaten zur Einhaltung der Datenschutzbestimmungen. Stellen Sie sicher, dass die Daten sanitiert oder gefiltert werden, während sie durch das System fließt. Beispielsweise können Daten aus früheren Kundensupportunterhaltungen als Basisdaten dienen. Es sollte vor der Wiederverwendung sanitiert werden.

Ethische Behandlung von Benutzerdaten

Ethische Praktiken beinhalten eine sorgfältige Handhabung der Benutzerdatenverwaltung. Dazu gehört auch, zu wissen, wann Daten verwendet werden sollen und wann keine Benutzerdaten verwendet werden sollen.

  • Rückschluss ohne Freigabe von Benutzerdaten. Um Benutzerdaten sicher mit anderen Organisationen für Einblicke zu teilen, verwenden Sie ein Clearinghouse-Modell. In diesem Szenario stellen Organisationen Daten an einen vertrauenswürdigen Drittanbieter bereit, der ein Modell mithilfe der aggregierten Daten trainiert. Dieses Modell kann dann von allen Institutionen verwendet werden, sodass freigegebene Erkenntnisse möglich sind, ohne einzelne Datensätze offen zu legen. Das Ziel besteht darin, die Ableitungsfunktionen des Modells zu verwenden, ohne detaillierte Schulungsdaten freizuleiten.

  • Fördern Sie Vielfalt und Inklusivität. Wenn Benutzerdaten erforderlich sind, verwenden Sie eine Vielzahl von Daten, einschließlich unterrepräsentierte Genres und Ersteller, um Verzerrungen zu minimieren. Implementieren Sie Features, mit denen Benutzer neue und vielfältige Inhalte erkunden können. Führen Sie eine fortlaufende Überwachung der Verwendung durch und passen Sie Empfehlungen an, um zu vermeiden, dass ein einzelner Inhaltstyp überhaupt dargestellt wird.

  • Respektieren Sie das "Recht, vergessen zu werden". Vermeiden Sie nach Möglichkeit die Verwendung von Benutzerdaten. Stellen Sie sicher, dass "Recht auf Vergessenwerden" eingehalten wird, indem Sie erforderliche Maßnahmen ergreifen, um sicherzustellen, dass Die Benutzerdaten sorgfältig gelöscht werden.

    Um die Compliance sicherzustellen, gibt es möglicherweise Anforderungen zum Entfernen von Benutzerdaten aus dem System. Für kleinere Modelle kann dies durch Eineschulung mit Daten erreicht werden, die persönliche Informationen ausschließen. Bei größeren Modellen, die aus mehreren kleineren, unabhängig trainierten Modellen bestehen können, ist der Prozess komplexer, und die Kosten und Der Aufwand sind erheblich. Suchen Sie rechtliche und ethische Anleitungen zur Behandlung dieser Situationen, und stellen Sie sicher, dass dies in Ihrer Richtlinie für verantwortungsvolle KI enthalten ist, die unter "Entwickeln verantwortlicher KI-Richtlinien" beschrieben ist.

  • Behalten Sie verantwortungsbewusst bei. Wenn die Löschung von Daten nicht möglich ist, fordern Sie die ausdrückliche Zustimmung des Benutzers für die Datensammlung ab und stellen klare Datenschutzrichtlinien bereit. Sammeln und aufbewahren Sie Daten nur, wenn sie unbedingt erforderlich sind. Stellen Sie Vorgänge bereit, um Daten aggressiv zu entfernen, wenn sie nicht mehr benötigt werden. Löschen Sie z. B. den Chatverlauf, sobald sie praktisch sind, und anonymisieren Sie vertrauliche Daten vor der Aufbewahrung. Stellen Sie sicher, dass für diese ruhenden Daten erweiterte Verschlüsselungsmethoden verwendet werden.

  • Unterstützen Sie die Erläuterung. Verfolgen Sie Entscheidungen im System, um die Erläuterungsanforderungen zu unterstützen. Entwickeln Sie klare Erklärungen darüber, wie Empfehlungsalgorithmen funktionieren, und bieten Sie Benutzern Einblicke darüber, warum ihnen spezifische Inhalte empfohlen werden. Ziel ist es, sicherzustellen, dass KI-Workloads und ihre Ergebnisse transparent und gerechtfertigt sind, indem sie angeben, wie Entscheidungen getroffen werden, welche Daten verwendet wurden und wie Modelle trainiert wurden.

  • Verschlüsseln von Benutzerdaten. Eingabedaten müssen in jeder Phase der Datenverarbeitungspipeline verschlüsselt werden, sobald der Benutzer Daten eingibt. Dies schließt Daten ein, während sie von einem Punkt zu einem anderen verschoben wird, wo sie gespeichert ist, und bei Bedarf während der Ableitung. Ausgleich von Sicherheit und Funktionalität, aber zielt es, Daten während des gesamten Lebenszyklus privat zu halten.

    Informationen zu Verschlüsselungstechniken finden Sie unter Anwendungsentwurf.

  • Bereitstellen robuster Zugriffssteuerungen. Mehrere Arten von Identitäten können potenziell auf Benutzerdaten zugreifen. Implementieren Sie rollenbasierte Zugriffssteuerung (Role-Based Access Control, RBAC) sowohl für die Steuerungsebene als auch für die Datenebene, die die Benutzer- und System-zu-System-Kommunikation abdeckt.

    Behalten Sie auch die richtige Benutzersegmentierung zum Schutz der Privatsphäre bei. Beispielsweise kann Copilot für Microsoft 365 Antworten basierend auf den spezifischen Dokumenten und E-Mails eines Benutzers suchen und bereitstellen, um sicherzustellen, dass nur für diesen Benutzer relevante Inhalte zugegriffen wird.

    Informationen zum Erzwingen von Zugriffssteuerelementen finden Sie unter Anwendungsentwurf.

  • Reduzieren Sie den Oberflächenbereich. Eine grundlegende Strategie der Well-Architected Framework Security-Säule ist die Minimierung der Angriffsfläche und der Härtung von Ressourcen. Diese Strategie sollte auf standardmäßige Endpunktsicherheitsmethoden angewendet werden, indem sie API-Endpunkte eng kontrollieren, nur wichtige Daten verfügbar machen und überflüssige Informationen in Antworten vermeiden. Die Designauswahl sollte zwischen Flexibilität und Kontrolle ausgeglichen werden.

    Stellen Sie sicher, dass keine anonymen Endpunkte vorhanden sind. Vermeiden Sie im Allgemeinen, kunden mehr Kontrolle zu geben als nötig. In den meisten Szenarien müssen Clients hyperparameter außer in experimentellen Umgebungen nicht anpassen. Für typische Anwendungsfälle, z. B. die Interaktion mit einem virtuellen Agent, sollten Clients nur wesentliche Aspekte steuern, um die Sicherheit zu gewährleisten, indem unnötige Kontrolle eingeschränkt wird.

    Weitere Informationen finden Sie unter "Anwendungsentwurf".

Nächste Schritte