Freigeben über


KI-Sicherheit für Microsoft 365 Copilot

KI hat viele Sektoren revolutioniert und bietet beispiellose Funktionen und Effizienzen. Beispielsweise Microsoft 365 Copilot, unser KI-gestütztes Produktivitätstool, koordiniert große Sprachmodelle (LLMs), Inhalte in Microsoft Graphs und die Microsoft 365-Produktivitäts-Apps wie Word, Excel, PowerPoint, Outlook, Teams, SharePoint und andere. Diese Integration bietet intelligente Unterstützung in Echtzeit, sodass Benutzer ihre Kreativität, Produktivität und Fähigkeiten verbessern können.

Kunden sind daran interessiert, diese Möglichkeiten zu erkunden, und sie berücksichtigen die wichtigen Aspekte der Sicherheit, die mit ihnen einhergehen. Basierend auf unseren Interaktionen mit Kunden, die sich auf ihrer Ki-Transformationsreise befinden, verstehen wir, dass Themen wie Datensicherheit, Datenschutz, Modellresistenz und Cyberangriffe an oberster Stelle stehen.

Microsoft weiß, wie wichtig diese Überlegungen sind. Deshalb verwenden wir eine robuste Defense-in-Depth-Strategie, um Produktivitätstools wie Microsoft 365 Copilot vor Sicherheitsrisiken zu schützen. Dieser mehrschichtige Ansatz umfasst eine Kombination aus erweiterter Threat Intelligence, strengen Sicherheitspraktiken und proaktiven Schutzmaßnahmen. Zusätzlich zu unseren eigenen Red-Teaming-Übungen zum Testen Microsoft 365 Copilot haben wir z. B. Casaba Security beauftragt, neun Copilot-Implementierungen in der Microsoft 365-Produktsuite zu testen. Wir haben uns umgehend mit den Ergebnissen ihrer Tests befasst und behoben, die sich auf die Identifizierung der Top 10 von Open Worldwide Application Security Project (OWASP) für LLM sowie auf herkömmliche Sicherheitsrisiken bei der Unterstützung der Anwendungsinfrastruktur konzentrierten.

Microsoft unternimmt umfassende Schritte, um sicherzustellen, dass Microsoft 365 Copilot unseren bestehenden Datenschutz-, Sicherheits- und Complianceverpflichtungen gegenüber unseren Kunden entspricht. Und da SICH KI-Technologien und Anwendungsfälle weiterentwickeln, wird unsere Arbeit nie erledigt: Microsoft ist bestrebt, den Schutz für Copilot kontinuierlich zu verbessern, aus unserer eigenen Überwachung und Tests unserer Systeme zu lernen und mit Kunden, Partnern und der sicherheitsrelevanten Branche zusammenzuarbeiten.

Dieser Artikel bietet eine Übersicht über den allgemeinen Sicherheitsstatus von Microsoft für KI und die Zusammenarbeit verschiedener Microsoft-Sicherheitslösungen, um Ihre Daten und Interaktionen in Microsoft 365 Copilot und anderen KI-Anwendungen zu schützen. Wir werden diesen Artikel mit neuen Informationen zu neuen Risiken und Innovationen in Lösungen aktualisieren, sobald diese verfügbar werden.

Schützen von Microsoft 365 Copilot

Bei Microsoft hat Sicherheit nicht nur Priorität. es ist die Grundlage für alles, was wir tun. Dieses Engagement gilt auch für KI: Das Microsoft Office of Responsible AI leitet nicht nur Sicherheit und Sicherheit auf unserer KI-Reise, unsere kürzlich erweiterte Secure Future Initiative spiegelt auch unser Engagement für die Schaffung einer sichereren digitalen Landschaft für alle wider.

Unser umfassender Sicherheitsstatus für KI hat die folgenden Säulen:

  • Verantwortungsvolle KI-Entwicklung: Microsoft setzt sich für prinzipienbewusste KI ein. Diese Prinzipien legen Wert auf Fairness, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit, Inklusion, Transparenz und Verantwortlichkeit während des gesamten KI-Lebenszyklus.
  • Bewährte Sicherheitsmethoden: Wir bieten maßgeschneiderte Ressourcen und bewährte Methoden für Entwickler, Ingenieure und Sicherheitsexperten, die mit Microsoft KI-Produkten arbeiten. Diese Ressourcen helfen Organisationen dabei, Sicherheitsmaßnahmen während der Bereitstellung zu verstehen und zu implementieren.
  • Sicherheitsentwicklungslebenszyklus (SDL): Unser strenger SDL integriert Sicherheitsaspekte während des gesamten KI-Entwicklungsprozesses. Dieser proaktive Ansatz stellt sicher, dass Sicherheitsrisiken von Anfang an identifiziert und entschärft werden.
  • Bedrohungsforschung, -erkennung und -abwehr: Wir investieren aktiv in Strategien, um Bedrohungen für unsere KI-Modelle zu erkennen und zu entschärfen. Dies umfasst die laufende Überwachung von Sicherheitsrisiken und die Entwicklung von Gegenmaßnahmen gegen potenzielle Angriffe. Microsoft Threat Intelligence, unser globales Netzwerk von Forschern, überwacht auch die Bedrohungslandschaft für Bedrohungsakteure und Cyberangriffe, die KI-Anwendungen nutzen könnten.

Microsoft schützt Datenschutz, Sicherheit und Zuverlässigkeit der KI-Features von Microsoft 365 Copilot von der Benutzereingabe bis zur Systemausgabephase. Microsoft 365 Copilot entspricht unseren bestehenden Datenschutz-, Sicherheits- und Complianceverpflichtungen, einschließlich der Datenschutz-Grundverordnung (DSGVO) und der Datengrenze der Europäischen Union (EU). Im Einklang mit diesen Verpflichtungen verarbeitet Microsoft die Informationen in allen Eingabeaufforderungen, die mit Copilot eingegeben werden, und die abgerufenen Daten und generierten Antworten bleiben als Kundendaten geschützt und unterliegen unseren vertraglichen Datenverarbeitungsanforderungen.

In den folgenden Abschnitten wird erläutert, wie Microsoft verschiedene Aspekte von Datenschutz, Sicherheit und Compliance behandelt, die wichtige Kundenüberlegungen für die Einführung Microsoft 365 Copilot sind.

Zugriffssteuerung und Berechtigungsverwaltung

Microsoft 365 Copilot greift im Namen des Benutzers auf Ressourcen zu, sodass er nur auf Ressourcen zugreifen kann, für die der Benutzer bereits über zugriffsberechtigungen verfügt. Wenn der Benutzer beispielsweise keinen Zugriff auf ein Dokument hat, haben Microsoft 365 Copilot, die im Namen des Benutzers arbeiten, ebenfalls keinen Zugriff.

Die Daten, die zum Generieren von Antworten verwendet werden, werden von Microsoft gemäß den vertraglichen Datenverarbeitungsanforderungen verarbeitet, einschließlich der Verschlüsselung während der Übertragung, um den Datenschutz zu schützen und Datenlecks zu verhindern. Darüber hinaus entsprechen Microsoft 365-Daten, einschließlich Daten aus Microsoft Graph und SharePoint, den Zugriffssteuerungs- und Überwachungsmechanismen.

Microsoft 365 Copilot respektiert Microsoft 365-, Microsoft Entra- und Microsoft Purview-Richtlinien, die den Benutzerzugriff und die Berechtigungen weiter einschränken, z. B. Informationsbarrieren, bedingter Zugriff und Vertraulichkeitsbezeichnungen.

Microsoft 365 Copilot erbt DLP-Richtlinien (Data Loss Prevention), um die Datenexfiltration von Copilot-generierten Antworten zu verhindern. Darüber hinaus wird die Datensicherheit verbessert, indem vertraulichkeitsbezeichnungen auf diese Antworten angewendet werden.

Schützen von Daten während des Modelltrainings

Microsoft 365 Copilot vortrainierte LLM-Modelle verwendet, die von Microsoft gehostet werden. Kundendaten werden nicht zum Trainieren dieser Modelle verwendet. Darüber hinaus werden Eingabeaufforderungs- und Erdungsdaten nicht zum Trainieren von KI-Modellen verwendet und niemals mit OpenAI oder anderen Drittanbietern geteilt.

Berücksichtigen der Anforderungen an die Datenresidenz

Microsoft berücksichtigt die Verpflichtungen zur Datenresidenz, wie in den Microsoft-Produktbedingungen und dem Nachtrag zum Datenschutz beschrieben. Microsoft Erweiterte Datenresidenz (ADR)- und Multi-Geo Capabilities-Angebote umfassen Datenresidenzverpflichtungen für Microsoft 365 Copilot-Kunden ab dem 1. März 2024. Für Benutzer der Europäischen Union (EU) bietet Microsoft zusätzliche Sicherheitsvorkehrungen zur Einhaltung der EU-Datengrenze. Der EU-Datenverkehr bleibt innerhalb der EU-Datengrenze, während der weltweite Datenverkehr zur LLM-Verarbeitung in die EU und andere Länder oder Regionen geschickt werden kann.

Alle daten, die für die KI-Verarbeitung gesendet werden, werden sowohl während der Übertragung als auch im Ruhezustand verschlüsselt. Um sicherzustellen, dass Daten während des gesamten Verarbeitungslebenszyklus sicher bleiben, verwendet Microsoft 365 FIPS 140-2-konforme dienstseitige Technologien, die Kundeninhalte im Ruhezustand und während der Übertragung verschlüsseln, einschließlich BitLocker, Dateiverschlüsselung, Transport Layer Security (TLS) 1.2 und Internetprotokollsicherheit (Internet Protocol Security, IPsec).

Härtung gegen prompte Injektionen

Microsoft verwendet eine Kombination aus erweitertem maschinellem Lernen für die Inhaltsfilterung auf mehreren Ebenen, strenge Sicherheitsprotokolle und kontinuierliche Überwachung. Indirekte oder eingabeaufforderungsübergreifende Einschleusungsklassifizierer erkennen und blockieren die Eingabeaufforderungsinjektion auf mehreren Ebenen. In der Zwischenzeit tragen Schutzmaßnahmen wie die folgenden auch dazu bei, die Auswirkungen von Angriffen mit cross-prompt injection (XPIA) auf die Sicherheit zu minimieren:

  • XPIA-Klassifizierer werden verwendet, um Instanzen von XPIA zu erkennen und zu reduzieren.

  • Voraussetzung für vom Benutzer initiierte oder genehmigte Aktionen für privilegierte Aktionen und Aktionen, die Inhalte ändern oder austreten können, z. B. das Senden einer E-Mail-Nachricht

  • Unnötige Mechanismen für den Datenausgang werden entfernt, um die Datenexfiltration zu verhindern.

Darüber hinaus kann der Angreifer im Rahmen eines Prompt Injection-Angriffs nur in dem Umfang auf Daten zugreifen, auf den der Benutzer Zugriff hat. Dies bedeutet, dass der Angreifer auf die Berechtigungen und Daten beschränkt ist, die der Benutzer innerhalb des Systems hat. Diese Einschränkung trägt dazu bei, den potenziellen Schaden eines Prompt Injection-Angriffs im Bereich der Benutzerberechtigungen einzudämmen.

Einhaltung der Prinzipien verantwortungsvoller KI

Die Prinzipien der verantwortungsbewussten KI von Microsoft leiten die Entwicklung und Verwendung von Microsoft 365 Copilot. Beispielsweise implementiert Microsoft 365 Copilot Klassifizierer, z. B. die in Azure KI Inhaltssicherheit verfügbaren, und Metaprompting, um das Risiko schädlicher, anstößige oder gewalttätiger Inhalte zu verringern. Microsoft 365 Copilot verwendet KI-basierte Klassifizierer und Inhaltsfilter, um verschiedene Arten potenziell schädlicher Inhalte in Benutzeraufforderungen oder generierten Antworten zu kennzeichnen. In der Zwischenzeit leitet metaprompting das Modellverhalten, einschließlich der Sicherstellung, dass sich das System in Übereinstimmung mit den KI-Prinzipien von Microsoft und den Erwartungen der Benutzer verhält.

Microsoft wendet auch Technologie zur Sofortigen Inspektion und Inhaltsfilter an, um die Verwendung von Microsoft 365 Copilot für Ransomware- und andere Malware-basierte Angriffe zu verhindern. Darüber hinaus trägt der Security Development Lifecycle (SDL) dazu bei, Microsoft 365 Copilot vor Remotecodeausführung zu schützen. Eine Möglichkeit, dies zu tun, besteht darin, zu verhindern, dass Copilot uneingeschränkten und nicht bereitgestellten Code ausführt.

Um nicht geerdeten Inhalt zu verhindern, implementiert Microsoft 365 Copilot die erweiterte Abrufgenerierung (Retrieval Augmented Generation, RAG) mithilfe einer dedizierten semantischen Datenbank, die Informationen zu den Inhalten von Microsoft 365-Mandantenkunden bereitstellen kann. Microsoft überprüft kontinuierlich und sorgfältig Änderungen an der Erdungsebene der Antwort. Für alle Änderungen, die wir an Microsoft 365 Copilot vornehmen (einschließlich Eingabeaufforderung, Modell oder Orchestrierung), erfassen wir Regressionen, die sich negativ auf den Benutzer auswirken können.

Es gibt neue Tools in Azure KI , die dazu beitragen, diese Sicherheitsvorkehrungen weiter zu verbessern, indem SIE KI-App-Entwicklern helfen, sicherere KI-Anwendungen zu erstellen.

Microsoft verfügt über einen integrierten Schutz vor der Generierung von geschützten Inhalten, der das branchenweit erste Customer Copyright Commitment-Programm umfasst, um Kunden zu schützen und nachteilige Urteile im Falle einer Urheberrechtsverletzung zu kompensieren.

Einhaltung gesetzlicher Anforderungen

Microsoft 365 Copilot erfüllt die gesetzlichen Anforderungen für eDiscovery, Überwachungsprotokollierung und Aufbewahrung über verschiedene Mechanismen:

  • Aufbewahrungsrichtlinien: Nachrichten von Microsoft 365 Copilot werden automatisch in den Aufbewahrungsrichtlinienspeicherort namens Teams-Chats und Copilot-Interaktionen eingeschlossen. Dies bedeutet, dass Benutzereingabeaufforderungen und Copilot-Antworten aus Konformitätsgründen beibehalten und gelöscht werden können. Die Daten aus Copilot-Nachrichten werden in einem ausgeblendeten Ordner im Postfach des Benutzers gespeichert, der Copilot ausführt, den Complianceadministratoren mit eDiscovery-Tools durchsuchen können.

  • Überwachungsprotokollierung: Überwachungsprotokolle, die von Microsoft 365 Copilot generiert werden, können für Kunden von Audit (Standard) bis zu 180 Tage und für Inhaber von Audit (Premium)-Lizenzen bis zu einem Jahr aufbewahrt werden, wobei eine Verlängerung auf bis zu 10 Jahre möglich ist.

  • Compliance mit Microsoft Purview: Microsoft Purview bietet Datensicherheits- und Complianceschutz für generative KI-Apps wie Copilot. Das Microsoft Purview Data Security Posture Management für KI, das sich derzeit in der Vorschauphase befindet, bietet benutzerfreundliche grafische Tools und Berichte, um schnell Einblicke in die KI-Nutzung innerhalb der organization zu erhalten. Richtlinien mit nur einem Klick tragen zum Schutz von Daten und zur Einhaltung gesetzlicher Anforderungen bei.

  • Admin-Steuerelemente: Administratoren können Microsoft Purview verwenden, um gespeicherte Daten anzuzeigen und zu verwalten, Aufbewahrungsrichtlinien festzulegen und eDiscovery-Suchvorgänge durchzuführen. Sowohl Administrator- als auch benutzerinitiierte Löschoptionen sind über Purview verfügbar.

Häufig gestellte Fragen

Sind die Ergebnisse von Microsoft 365 Copilot zuverlässig?

Microsoft-Schutzmaßnahmen bieten zwar eine starke Bedrohungsminderung vor Fehlinformationen und Kompromittierung, wie bei jeder KI-Anwendung, aber die Antworten von Microsoft 365 Copilot sind möglicherweise nicht immer genau. Sie sollten dennoch menschliches Urteilsvermögen anwenden, um diese Antworten zu überprüfen.

Wie behandelt Microsoft meine Eingabeaufforderungen und Antworten?

Microsoft behandelt Aufforderungen und Antworten, da wir andere traditionellere Formen von Inhalten wie E-Mails, Dokumente und Chats behandeln und unsere vertraglichen Verpflichtungen identisch sind.

Verwendet Microsoft 365 Copilot meine Daten zum Trainieren von KI-Modellen?

Prompts, Antworten und Kundendaten, auf die über Microsoft Graph zugegriffen wird, werden nicht zum Trainieren von grundlegenden LLMs verwendet, einschließlich derer, die von Microsoft 365 Copilot verwendet werden. Produktverbesserungen werden durch Techniken wie kundenseitig gemeldete Vorfälle und die Generierung synthetischer Aufforderungen vorangetrieben.

Was kann ich tun, wenn unerwartete oder anstößige Inhalte angezeigt werden?

Melden Sie alle störenden oder verdächtigen Inhalte sofort, indem Sie die Downvote-Schaltfläche (Daumen nach unten) neben der Eingabeaufforderungsantwort auswählen.

Wie kann ich auf den Bericht zur Microsoft 365 Copilot Sicherheitsrisikobewertung zugreifen?

Die Sicherheitsrisikobewertung von Microsoft 365 Copilot von Drittanbietern kann vom Service Trust Portal heruntergeladen werden.

Kann Microsoft mir helfen, Risiken in meinen KI-Anwendungen zu finden?

Microsoft hat das Python Risk Identification Toolkit für generative KI (PyRIT) veröffentlicht, ein Open Access Automation Framework, das Sicherheitsexperten und Machine Learning-Technikern ermöglichen soll, Risiken in ihren eigenen generativen KI-Systemen proaktiv zu finden .

Hat Microsoft 365 Copilot Zugriff auf Daten, die ich beim Grounding von Inhalten nicht habe?

Microsoft 365 Copilot greift im Namen des Benutzers auf Ressourcen zu, sodass er nur auf Ressourcen zugreifen kann, für die Sie bereits über die Berechtigung verfügen.

Die Erdung erfolgt im Kontext Ihrer Identität, und der semantische Index und die Graphabfragen werden basierend auf Ihren Berechtigungen für den zugrunde liegenden Inhalt "security trimmed". Dadurch wird sichergestellt, dass nur autorisierte Inhalte in den Erdungsprozess einbezogen werden.

Wie kann ich Daten einschränken, die Microsoft 365 Copilot verwenden können?

Die folgenden Schritte können Administratoren dabei helfen, den Benutzerzugriff zu steuern und daher einzuschränken, welche Daten Microsoft 365 Copilot verwenden können:

Wie kann ich Microsoft-Sicherheitslösungen verwenden, um Daten und KI-Anwendungsinteraktionen zu schützen?

Microsoft empfiehlt immer, eine starke Sicherheitsgrundlage für Ihr Unternehmen zu schaffen. Die Zero Trust Sicherheitsstrategie bietet Anleitungen für eine solche Grundlage, da sie jede Verbindung und Ressourcenanforderung so behandelt, als ob sie von einem unkontrollierten Netzwerk und einem Bedrohungsakteur stammte. Unabhängig davon, woher die Anforderung stammt oder auf welche Ressource sie zugreift, verwenden Sie Zero Trust Prinzipien.

Unsere umfassenden Sicherheitslösungen – einschließlich Microsoft Defender, Entra, Purview und Intune – arbeiten zusammen, um Ihre Daten und Interaktionen in Microsoft 365 Copilot und anderen KI-Anwendungen zu schützen. Diese Produkte verfügen über Funktionen, die Ihnen und Ihren Teams Folgendes ermöglichen:

  • Identifizieren potenzieller Risiken im Zusammenhang mit der KI-Nutzung, z. B. Vertrauliche Datenlecks und nicht autorisierter Zugriff auf Anwendungen mit hohem Risiko

  • Schützen der KI-Anwendungen und der vertraulichen Daten, die sie verarbeiten oder generieren, einschließlich Aufforderungen und Antworten

  • Verantwortungsvolles Steuern der KI-Nutzung durch Beibehalten und Protokollieren von Interaktionen, Erkennen von Richtlinienverstößen und Untersuchen von Vorfällen

Zum Beispiel haben wir kürzlich neue Microsoft Defender- und Purview-Funktionen eingeführt, die speziell erstellte Tools für robuste Sicherheit und Governance von generativen KI-Anwendungen und deren Daten bereitstellen. Darüber hinaus optimiert die nahtlose Integration von Microsoft Security Copilot in unseren Produkten den gesamten Prozess und die Erfahrung für Sicherheitsanalysten. Durch die Priorisierung der Sicherheit und das Anbieten dieser erweiterten Features ermöglicht Microsoft Organisationen, die Vorteile und Möglichkeiten, die KI-Anwendungen bieten, sicher anzuwenden.

Wo sollte ich Sicherheitsrisiken in Microsoft 365 Copilot und anderen KI-Anwendungen melden?

Wenn Sie neue Sicherheitsrisiken in einer KI-Plattform entdecken, empfehlen wir Ihnen, verantwortungsvolle Offenlegungsmethoden für den Plattformbesitzer zu befolgen. Microsofts eigene Vorgehensweise (für Copilot) wird auf dieser Seite erläutert: Microsoft AI Bounty Program.