Künstliche Intelligenz (KI) Modell für gemeinsame Verantwortung
Wenn Sie KI-fähige Integration erwägen und bewerten, ist es wichtig, das Modell der gemeinsamen Verantwortung zu verstehen und welche Aufgaben der KI- oder Anwendungsanbieter durchführt und welche Aufgaben bei Ihnen verbleiben. Die Workloadverantwortlichkeiten variieren in Abhängigkeit davon, ob die KI-Integration auf SaaS (Software-as-a-Service), auf PaaS (Platform-as-a-Service) oder auf IaaS (Infrastructure-as-a-Service) basiert.
Aufteilung der Verantwortung
Wie bei Clouddiensten haben Sie beim Implementieren von KI-Funktionen für Ihre Organisation Optionen zu Auswahl. Je nachdem, welche Option Sie auswählen, übernehmen Sie die Verantwortung für verschiedene Teile der erforderlichen Vorgänge und Richtlinien, die für die sichere Verwendung von KI erforderlich sind.
Im folgenden Diagramm werden die Zuständigkeitsbereiche zwischen Ihnen und Microsoft entsprechend der Art der Bereitstellung veranschaulicht.
Übersicht über KI-Ebene
Eine KI-fähige Anwendung besteht aus drei Funktionsebenen, die Aufgaben gruppieren, die Sie oder ein KI-Anbieter ausführen. Die Sicherheitsaufgaben befinden sich in der Regel bei jedem, der die Aufgaben ausführt, aber ein KI-Anbieter kann sich entscheiden, Sicherheit oder andere Steuerelemente als Konfigurationsoption für Sie ggf. verfügbar zu machen. Zu diesen drei Ebenen gehören:
Plattform für künstliche Intelligenz
Die KI-Plattformebene bietet die KI-Funktionen für die Anwendungen. Auf Plattformebene müssen Sie die Infrastruktur erstellen und schützen, die das KI-Modell, Schulungsdaten und bestimmte Konfigurationen ausführt, die das Verhalten des Modells ändern, z. B. Gewichtungen und Voreingenommenheiten. Diese Ebene bietet Zugriff auf Funktionen über APIs, die Text als Metaprompt an das KI-Modell zur Verarbeitung übergeben, und gibt dann das generierte Ergebnis zurück, das als Prompt-Response bezeichnet wird.
Überlegungen zur KI-Plattformsicherheit – Um die KI-Plattform vor schädlichen Eingaben zu schützen, muss ein Sicherheitssystem erstellt werden, um die potenziell schädlichen Anweisungen herauszufiltern, die an das KI-Modell (Eingaben) gesendet werden. Da KI-Modelle generativ sind, gibt es auch ein Potenzial, dass einige schädliche Inhalte generiert und an den Benutzer zurückgegeben werden (Ausgaben). Jedes Sicherheitssystem muss zuerst vor potenziell schädlichen Eingaben und Ausgaben vieler Klassifizierungen schützen, darunter Hass, Jailbreaks und andere. Diese Klassifizierungen werden sich wahrscheinlich im Laufe der Zeit weiterentwickeln, basierend auf Modellwissen, Gebietsschema und Industrie.
Microsoft verfügt über integrierte Sicherheitssysteme für PaaS- und SaaS-Angebote:
- PaaS - Azure OpenAI Service
- SaaS – Microsoft Security Copilot
KI-Anwendung
Die KI-Anwendung greift auf die KI-Funktionen zu und stellt den Dienst oder die Benutzeroberfläche bereit, die der Benutzer nutzt. Die Komponenten in dieser Ebene können je nach Anwendung von relativ einfach bis hoch komplex variieren. Die einfachsten eigenständigen KI-Anwendungen dienen als Schnittstelle zu einer Reihe von APIs, die eine textbasierte Benutzeraufforderung verwenden und diese Daten für eine Antwort an das Modell übergeben. Komplexere KI-Anwendungen umfassen die Möglichkeit, die Benutzeraufforderung mit zusätzlichem Kontext zu verbinden, einschließlich einer Persistenzebene, semantischen Index oder über Plug-Ins, um den Zugriff auf weitere Datenquellen zu ermöglichen. Erweiterte KI-Anwendungen können auch mit vorhandenen Anwendungen und Systemen kommunizieren. Vorhandene Anwendungen und Systeme funktionieren möglicherweise über Text, Audio und Bilder hinweg, um verschiedene Arten von Inhalten zu generieren.
Überlegungen zur Sicherheit von KI-Anwendungen – Es muss ein Anwendungssicherheitssystem erstellt werden, um die KI-Anwendung vor böswilligen Aktivitäten zu schützen. Das Sicherheitssystem bietet eine umfassende Überprüfung des Inhalts, der in der Metaprompt verwendet wird, die an das KI-Modell gesendet wird. Das Sicherheitssystem prüft auch die Interaktionen mit Plug-Ins, Datenconnektoren und anderen KI-Anwendungen (sogenannte KI-Orchestrierung). Eine Möglichkeit, dies in Ihre eigene IaaS/PaaS-basierte KI-Anwendung zu integrieren, besteht darin, den Azure AI Content Safety-Dienst zu verwenden. Je nach Ihren Anforderungen stehen weitere Funktionen zur Verfügung.
KI-Nutzung
Die KI-Nutzungsebene beschreibt, wie die KI-Funktionen letztendlich verwendet und genutzt werden. Generative KI bietet eine neue Art von Benutzer-/Computerschnittstelle, die sich grundlegend von anderen Computerschnittstellen unterscheidet, z. B. API, Eingabeaufforderung und grafische Benutzeroberflächen (GUIs). Die generative KI-Schnittstelle ist sowohl interaktiv als auch dynamisch, sodass sich die Computerfunktionen an den Benutzer und ihre Absicht anpassen können. Die generative KI-Schnittstelle steht im Gegensatz zu früheren Schnittstellen, die in erster Linie die Benutzer dazu zwingen, das Systemdesign und die Systemfunktionalität zu erlernen und an sie anzupassen. Diese Interaktivität ermöglicht es, dass der Benutzer anstelle der Anwendungsentwickler einen großen Einfluss auf die Ausgabe des Systems hat, wodurch Sicherheitsleitsysteme für den Schutz von Menschen, Daten und Geschäftswerten entscheidend sind.
Überlegungen zur KI-Nutzung - Der Schutz der KI-Nutzung ähnelt jedem Computersystem, da es auf Sicherheitsvorkehrungen für Identitäts- und Zugriffskontrollen, Geräteschutz und -überwachung, Datenschutz und Governance, administrative Kontrollen und andere Steuerelemente basiert.
Aufgrund des größeren Einflusses, den die Benutzer auf die Ergebnisse der Systeme haben, muss mehr Wert auf das Benutzerverhalten und die Verantwortlichkeit gelegt werden. Es ist wichtig, akzeptable Nutzungsrichtlinien zu aktualisieren und Benutzer über den Unterschied von Standard-IT-Anwendungen zu KI-aktivierten Anwendungen zu informieren. Dazu sollten KI-spezifische Überlegungen im Zusammenhang mit Sicherheit, Datenschutz und Ethik gehören. Darüber hinaus sollten die Benutzer über KI-basierte Angriffe aufgeklärt werden, mit denen sie durch überzeugend gefälschte Texte, Stimmen, Videos usw. getäuscht werden können.
KI-spezifische Angriffstypen sind definiert in:
- MsRC-Sicherheitsrisikoklassifizierung (MSRC) des Microsoft Security Response Centers für KI-Systeme
- MITRE Adversarial Threat Landscape for Artificial-Intelligence Systems (ATLAS)
- OWASP Top 10 für LLM-Anwendungen (Large Language Model)
- OWASP Machine Learning (ML) Sicherheits-Top 10
- NIST KI-Risikomanagement-Framework
Sicherheitslebenszyklus
Wie bei der Sicherheit für andere Arten von Funktionen ist es wichtig, einen vollständigen Ansatz zu planen. Ein vollständiger Ansatz umfasst Personen, Prozesse und Technologien im gesamten Sicherheitslebenszyklus: Identifizieren, Schützen, Erkennen, Reagieren, Wiederherstellen und Steuern. Jede Lücke oder Schwäche in diesem Lebenszyklus könnte zur Folge haben, dass Sie:
- wichtige Ressourcen nicht sichern können
- leicht vermeidbare Angriffe erleben
- nicht in der Lage sind, Angriffe zu bewältigen
- nicht in der Lage sind, geschäftskritische Dienste schnell wiederherzustellen
- Kontrollen uneinheitlich anwenden
Wenn Sie mehr über die Einzigartigkeit von KI-Bedrohungstests erfahren möchten, lesen Sie, wie das Microsoft AI Red Team die Zukunft der sicheren KI gestaltet.
Konfigurieren vor dem Anpassen
Microsoft empfiehlt Unternehmen, bei der ersten Einführung von KI und bei allen nachfolgenden KI-Arbeitslasten mit SaaS-basierten Ansätzen wie dem Copilot-Modell zu beginnen. Dies minimiert das Maß an Verantwortung und Know-how, das Ihr Unternehmen bereitstellen muss, um diese hochkomplexen Funktionen zu entwerfen, zu betreiben und zu sichern.
Wenn die aktuellen „off the shelf“-Funktionen nicht den spezifischen Anforderungen für einen Workload entsprechen, können Sie ein PaaS-Modell verwenden, indem Sie KI-Dienste wie Azure OpenAI Serviceverwenden, um diese spezifischen Anforderungen zu erfüllen.
Die Erstellung benutzerdefinierter Modelle sollte nur von Unternehmen übernommen werden, die über fundierte Fachkenntnisse im Bereich der Datenwissenschaft und der Sicherheit, des Datenschutzes und der ethischen Aspekte der KI verfügen.
Um KI in die Welt zu bringen, entwickelt Microsoft Copilot-Lösungen für jede der wichtigsten Produktivitätslösungen: von Bing und Windows bis hin zu GitHub und Office 365. Microsoft entwickelt Full-Stack-Lösungen für alle Arten von Produktivitätsszenarien. Diese werden als SaaS-Lösungen angeboten. Sie sind in die Benutzeroberfläche des Produkts integriert und darauf abgestimmt, den Benutzer bei bestimmten Aufgaben zu unterstützen, um die Produktivität zu steigern.
Microsoft stellt sicher, dass jede Copilot-Lösung nach unseren strikten Prinzipien für KI-Governanceentwickelt wird.
Nächste Schritte
Erfahren Sie mehr über die Produktentwicklungsanforderungen von Microsoft für die verantwortungsvolle KI im Microsoft-Standard für verantwortungsvolle KI.
Erfahren Sie mehr über Gemeinsame Verantwortung für das Cloud Computing.