Daten, Datenschutz und Sicherheit für Microsoft 365 Copilot
Microsoft 365 Copilot ist eine ausgereifte Verarbeitungs- und Orchestrierungs-Engine, die KI-gestützte Produktivitätsfunktionen bietet, indem die folgenden Komponenten koordiniert werden:
- Große Sprachmodelle (LLMs)
- Inhalte in Microsoft Graph, wie z.B. E-Mails, Chats und Dokumente, für die Sie die Berechtigung haben, darauf zuzugreifen.
- Die Microsoft 365 Produktivitäts-Apps, die Sie täglich verwenden, z. B. Word und PowerPoint.
Eine Übersicht darüber, wie diese drei Komponenten zusammenarbeiten, finden Sie unter Microsoft 365 Copilot Übersicht. Links zu anderen Inhalten im Zusammenhang mit Microsoft 365 Copilot finden Sie unter Microsoft 365 Copilot Dokumentation.
Wichtig
- Microsoft 365 Copilot entspricht unseren bestehenden Datenschutz-, Sicherheits- und Compliance-Verpflichtungen gegenüber kommerziellen Microsoft 365-Kunden, einschließlich der General Data Protection Regulation (GDPR) und der EU-Datenschutzgrundverordnung (European Union (EU) Data Boundary).
- Eingabeaufforderungen, Antworten und Daten, auf die über Microsoft Graph zugegriffen wird, werden nicht für das Training von Foundation LLMs verwendet, auch nicht für die von Microsoft 365 Copilot verwendeten.
- Microsoft 365 Copilot arbeitet mit mehreren Schutzmaßnahmen, einschließlich, aber nicht beschränkt auf, das Blockieren schädlicher Inhalte, Erkennen von geschütztem Materialund Blockieren von Prompt Injections (Jailbreak-Angriffen).
Die Informationen in diesem Artikel sollen Ihnen helfen, Antworten auf die folgenden Fragen zu finden:
- Wie verwendet Microsoft 365 Copilot Ihre geschützten Organisationsdaten?
- Wie schützt Microsoft 365 Copilot Organisationsinformationen und -daten?
- Welche Daten werden über Benutzerinteraktionen mit Microsoft 365 Copilot gespeichert?
- Welche Verpflichtungen zur Datenresidenz übernimmt Microsoft 365 Copilot?
- Welche Erweiterbarkeitsoptionen sind für Microsoft 365 Copilot verfügbar
- Wie erfüllt Microsoft 365 Copilot die Anforderungen an die Einhaltung gesetzlicher Vorschriften?
- Gelten Datenschutzkontrollen für verbundene Erfahrungen in Microsoft 365 Apps für Microsoft 365 Copilot?
- Kann ich den Inhalten vertrauen, die Microsoft 365 Copilot erstellt? Wer besitzt diese Inhalte?
- Welche Verpflichtungen hat Microsoft, um KI verantwortungsvoll zu verwenden?
Hinweis
Microsoft 365 Copilot wird sich im Laufe der Zeit mit neuen Funktionen weiterentwickeln. Um über Microsoft 365 Copilot auf dem Laufenden zu bleiben oder Fragen zu stellen, besuchen Sie die Microsoft 365 Copilot-Community in der Microsoft Tech Community.
Wie verwendet Microsoft 365 Copilot Ihre geschützten Organisationsdaten?
Microsoft 365 Copilot bietet einen Mehrwert durch die Verbindung von LLMs mit Ihren Organisationsdaten. Microsoft 365 Copilot greift auf Inhalte und Kontext über Microsoft Graph zu. Es kann Antworten generieren, die in Ihren Organisationsdaten verankert sind, wie z. B. Benutzerdokumente, E-Mails, Kalender, Chats, Besprechungen und Kontakte. Microsoft 365 Copilot kombiniert diese Inhalte mit dem Arbeitskontext des Benutzers, z. B. mit der Besprechung, in der sich der Benutzer gerade befindet, mit dem E-Mailverkehr, den der Benutzer zu einem bestimmten Thema geführt hat, oder mit den Chatkonversationen, die der Benutzer letzte Woche geführt hat. Microsoft 365 Copilot verwendet diese Kombination aus Inhalt und Kontext, um genaue, relevante und kontextbezogene Antworten zu liefern.
Wichtig
Eingabeaufforderungen, Antworten und Daten, auf die über Microsoft Graph zugegriffen wird, werden nicht für das Training von Foundation LLMs verwendet, auch nicht für die von Microsoft 365 Copilot verwendeten.
Microsoft 365 Copilot zeigt nur Organisationsdaten an, für die einzelne Benutzer mindestens die Berechtigung zur Ansicht haben. Es ist wichtig, dass Sie die Berechtigungsmodelle verwenden, die in Microsoft 365-Diensten wie SharePoint verfügbar sind, um sicherzustellen, dass die richtigen Benutzer oder Gruppen den richtigen Zugriff auf die richtigen Inhalte in Ihrer Organisation haben. Dies umfasst Berechtigungen, die Sie Benutzern außerhalb Ihrer Organisation über mandantenübergreifende Lösungen für die Zusammenarbeit erteilen, z. B. freigegebene Kanäle in Microsoft Teams.
Wenn Sie Prompts in Microsoft 365 Copilot eingeben, bleiben die in Ihren Prompts enthaltenen Informationen, die abgerufenen Daten und die generierten Antworten innerhalb der Microsoft 365-Dienstgrenze, in Übereinstimmung mit unseren aktuellen Datenschutz-, Sicherheits- und Complianceverpflichtungen. Microsoft 365 Copilot verwendet Azure OpenAI Services für die Verarbeitung, nicht die öffentlich verfügbaren OpenAI Services. Azure OpenAI zwischenspeichert keine Kundeninhalte und Copilot hat die Prompts für Microsoft 365 Copilot geändert. Weitere Informationen finden Sie im Abschnitt Gespeicherte Daten über Benutzerinteraktionen mit Microsoft 365 Copilot weiter unten in diesem Artikel.
Hinweis
- Wenn Sie Plug-Ins verwenden, um Microsoft 365 Copilot bei der Bereitstellung relevanterer Informationen zu unterstützen, überprüfen Sie die Datenschutzerklärung und die Nutzungsbedingungen des Plug-Ins, um zu ermitteln, wie es mit den Daten Ihrer Organisation umgeht. Weitere Informationen finden Sie unter Erweiterbarkeit von Microsoft 365 Copilot.
- Wenn Sie das Plug-In für Webinhalte verwenden, analysiert Microsoft 365 Copilot den Prompt des Benutzers und identifiziert Begriffe, bei denen eine Websuche die Qualität der Antwort verbessern würde. Basierend auf diesen Begriffen generiert Copilot eine Suchabfrage, die an den Bing-Suche-Dienst gesendet wird. Weitere Informationen finden Sie unter Daten, Datenschutz und Sicherheit für Webabfragen in Microsoft 365 Copilot und Microsoft Copilot.
Während die Missbrauchsüberwachung, zu der auch die Überprüfung von Inhalten durch Menschen gehört, in Azure OpenAI verfügbar ist, haben Microsoft 365 Copilot-Dienste dies deaktiviert. Informationen zur Inhaltsfilterung finden Sie im Abschnitt Wie blockiert Copilot schädliche Inhalte? weiter unten in diesem Artikel.
Hinweis
Wir können Kundenfeedback, das optional ist, verwenden, um Microsoft 365 Copilot zu verbessern, genau wie wir Kundenfeedback verwenden, um andere Microsoft 365-Dienste und Microsoft 365-Produktivitätsapps zu verbessern. Wir verwenden dieses Feedback nicht, um die von Microsoft 365 Copilot verwendeten Foundation LLMs zu trainieren. Kunden können Feedback über Administratorsteuerelemente verwalten. Weitere Informationen finden Sie unter Verwalten von Microsoft-Feedback für Ihre Organisation und Bereitstellen von Feedback zu Microsoft Copilot mit Microsoft 365 Apps.
Gespeicherte Daten über Benutzerinteraktionen mit Microsoft 365 Copilot
Wenn ein Benutzer mit Microsoft 365 Copilot interagiert (über Apps wie Word, PowerPoint, Excel, OneNote, Loop oder Whiteboard), speichern wir Daten über diese Interaktionen. Die gespeicherten Daten umfassen die Eingabeaufforderung des Nutzers und die Antwort von Copilot, einschließlich Zitate auf Informationen, die zur Begründung der Antwort von Copilot verwendet wurden. Wir bezeichnen die Eingabeaufforderung des Benutzers und die Antwort von Copilot auf diese Aufforderung als "Inhalt von Interaktionen", und die Aufzeichnung dieser Interaktionen ist der Copilot-Aktivitätsverlauf des Benutzers. Diese gespeicherten Daten stellen Benutzern beispielsweise den Copilot-Aktivitätsverlauf in Business Chat und Besprechungen in Microsoft Teams zur Verfügung. Diese Daten werden in Übereinstimmung mit vertraglichen Verpflichtungen mit den anderen Inhalten Ihrer Organisation in Microsoft 365 verarbeitet und gespeichert. Die Daten werden während der Speicherung verschlüsselt und nicht zum Trainieren grundlegender LLMs verwendet, einschließlich derjenigen, die von Microsoft 365 Copilot verwendet werden.
Um diese gespeicherten Daten anzuzeigen und zu verwalten, können Administratoren die Inhaltssuche oder Microsoft Purview verwenden. Administratoren können auch Microsoft Purview verwenden, um Aufbewahrungsrichtlinien für die Daten im Zusammenhang mit Chatinteraktionen mit Copilot festzulegen. Weitere Informationen finden Sie in den folgenden Artikeln:
- Übersicht über die Inhaltssuche
- Microsoft Purview-Datenschutz und Complianceschutz für generative KI-Anwendungen
- Informationen zur Aufbewahrung für Copilot
Für Microsoft Teams-Chats mit Copilot können Administratoren auch Microsoft Teams-Export-APIs verwenden, um die gespeicherten Daten anzuzeigen.
Löschen des Verlaufs von Benutzerinteraktionen mit Microsoft 365 Copilot
Ihre Benutzer können ihren Copilot-Aktivitätsverlauf löschen, der ihre Eingabeaufforderungen und die Antworten enthält, die Copilot zurückgibt, indem sie zum Portal Mein Konto wechseln. Weitere Informationen finden Sie unter Löschen des Microsoft 365 Copilot Aktivitätsverlaufs.
Microsoft 365 Copilot und die EU-Datengrenze
Microsoft 365 Copilot-Anrufe an den LLM werden an die nächstgelegenen Rechenzentren in der Region weitergeleitet, können aber in Zeiten hoher Auslastung auch in andere Regionen geleitet werden, in denen Kapazitäten verfügbar sind.
Für Benutzer aus der Europäischen Union (EU) haben wir zusätzliche Sicherheitsvorkehrungen getroffen, um die EU-Datengrenze einzuhalten. Der EU-Datenverkehr bleibt innerhalb der EU-Datengrenze, während der weltweite Datenverkehr zur LLM-Verarbeitung in die EU und andere Länder oder Regionen geschickt werden kann.
Microsoft 365 Copilot und Datenresidenz
Microsoft 365 Copilot hält die Datenresidenzverpflichtungen gemäß den Microsoft-Produktbedingungen und dem Nachtrag zum Datenschutz ein. Microsoft 365 Copilot wurde am 1. März 2024 als abgedeckte Workload in die Datenresidenzverpflichtungen in den Microsoft-Produktbedingungen aufgenommen.
Microsoft Erweiterte Datenresidenz (ADR)- und Multi-Geo Capabilities-Angebote umfassen Datenresidenzverpflichtungen für Microsoft 365 Copilot-Kunden ab dem 1. März 2024. Für EU-Kunden ist Microsoft 365 Copilot ein EU-Datenbegrenzungsdienst. Kunden außerhalb der EU können ihre Abfragen in den USA, in der EU oder in anderen Regionen verarbeiten lassen.
Erweiterbarkeit von Microsoft 365 Copilot
Während Microsoft 365 Copilot bereits die Apps und Daten innerhalb des Microsoft 365-Ökosystems verwenden kann, sind viele Organisationen immer noch auf verschiedene externe Tools und Dienste für die Arbeitsverwaltung und Zusammenarbeit angewiesen. Microsoft 365 Copilot-Erfahrungen können auf Tools und Dienste von Drittanbietern verweisen, wenn sie mithilfe von Microsoft Graph-Connectors oder Plug-Ins auf die Anforderung eines Benutzers reagieren. Daten von Graph-Connectors können in Microsoft 365 Copilot-Antworten zurückgegeben werden, wenn der Benutzer über eine Zugriffsberechtigung für diese Informationen verfügt.
Wenn Plug-Ins aktiviert sind, bestimmt Microsoft 365 Copilot, ob ein bestimmtes Plug-In verwendet werden muss, um dem Benutzer eine relevante Antwort zu geben. Wenn ein Plug-In benötigt wird, generiert Microsoft 365 Copilot eine Suchabfrage, die im Namen des Benutzers an das Plug-In gesendet wird. Die Abfrage basiert auf der Eingabeaufforderung des Benutzers, dem Copilot-Aktivitätsverlauf und den Daten, auf die der Benutzer in Microsoft 365 Zugriff hat.
Im Abschnitt Integrierte Apps des Microsoft 365 Admin Centers können Administratoren die Berechtigungen und den Datenzugriff anzeigen, die für ein Plug-In erforderlich sind sowie die Nutzungsbedingungen und Datenschutzbestimmungen des Plug-Ins. Administratoren haben die volle Kontrolle darüber, welche Plug-ins in ihrer Organisation zulässig sind. Ein Benutzer kann nur auf die Plug-Ins zugreifen, die sein Administrator zulässt und die der Benutzer installiert hat oder zugewiesen ist. Microsoft 365 Copilot verwendet nur Plug-Ins, die vom Benutzer aktiviert werden.
Weitere Informationen finden Sie in den folgenden Artikeln:
- Verwalten von Plug-Ins für Copilot in integrierten Apps
- Erweitern von Microsoft 365 Copilot
- Wie Microsoft 365 Copilot mit Ihren externen Daten arbeiten kann
Wie schützt Microsoft 365 Copilot Organisationsdaten?
Mit dem Berechtigungsmodell in Ihrem Microsoft 365- Mandanten kann sichergestellt werden, dass Daten nicht versehentlich zwischen Benutzern, Gruppen und Mandanten offengelegt werden. Microsoft 365 Copilot zeigt nur Daten an, auf die jeder Einzelne zugreifen kann, wobei die gleichen zugrunde liegenden Steuerelemente für den Datenzugriff verwendet werden, die auch in anderen Microsoft 365-Diensten verwendet werden. Der semantische Index beachtet die auf der Benutzeridentität basierende Zugriffsgrenze, so dass der Grounding-Prozess nur auf Inhalte zugreift, für die der aktuelle Benutzer eine Zugriffsberechtigung hat. Weitere Informationen finden Sie in den Datenschutzrichtlinien und in der Dokumentation der Dienste von Microsoft.
Wenn Sie über Daten verfügen, die von Microsoft Purview Information Protection verschlüsselt werden, berücksichtigt Microsoft 365 Copilot die dem Benutzer gewährten Nutzungsrechte. Diese Verschlüsselung kann durch Vertraulichkeitsbezeichnungen oder eingeschränkte Berechtigungen in Apps in Microsoft 365 mithilfe von Information Rights Management (IRM) angewendet werden. Weitere Informationen zur Verwendung von Microsoft Purview mit Microsoft 365 Copilot finden Sie unter Microsoft Purview-Datenschutz und Complianceschutz für generative KI-Apps.
Wir implementieren bereits mehrere Arten des Schutzes, um zu verhindern, dass Kunden Microsoft 365-Dienste und -Anwendungen gefährden oder nicht autorisierten Zugriff auf andere Mandanten oder das Microsoft 365 System selbst erhalten. Hier sind einige Beispiele für diese Formen des Schutzes:
Die logische Isolierung von Kundeninhalten innerhalb jedes Mandanten für Microsoft 365-Dienste wird durch die Microsoft Entra ID-Autorisierung und rollenbasierte Zugriffskontrolle erreicht. Weitere Informationen finden Sie unter Microsoft 365 Isolationssteuerelemente.
Microsoft verwendet strenge physische Sicherheit, Hintergrundprüfung und eine mehrschichtige Verschlüsselungsstrategie, um die Vertraulichkeit und Integrität von Kundeninhalten zu schützen.
Microsoft 365 verwendet dienstseitige Technologien, die Ruhe- und Transitinhalte von Kunden verschlüsseln, einschließlich BitLocker, dateibasierter Verschlüsselung, Transport Layer Security (TLS) und Internetprotokollsicherheit (Internet Protocol Security, IPsec). Spezifische Informationen zur Verschlüsselung in Microsoft 365 finden Sie unter Verschlüsselung in der Microsoft Cloud.
Ihre Kontrolle über Ihre Daten wird durch Microsofts Verpflichtung zur Einhaltung allgemein geltender Datenschutzgesetze, wie z. B. der GDPR, und von Datenschutzstandards, wie z. B. ISO/IEC 27018, dem weltweit ersten internationalen Verhaltenskodex für den Datenschutz in der Cloud, verstärkt.
Bei Inhalten, auf die über Microsoft 365 Copilot-Plug-Ins zugegriffen wird, kann die Verschlüsselung den programmgesteuerten Zugriff ausschließen und so den Zugriff des Plug-Ins auf die Inhalte beschränken. Weitere Informationen finden Sie unter Konfigurieren von Nutzungsrechten für Azure-Informationsschutz.
Besprechung der Anforderungen zur Einhaltung von Vorschriften
Mit der Weiterentwicklung der Regulierung im KI-Bereich wird Microsoft sich weiterhin anpassen und reagieren, um zukünftige gesetzliche Anforderungen zu erfüllen.
Microsoft 365 Copilot baut auf den aktuellen Verpflichtungen von Microsoft in Bezug auf Datensicherheit und Datenschutz im Unternehmen auf. Diese Verpflichtungen werden sich nicht ändern. Microsoft 365 Copilot ist in Microsoft 365 integriert und hält sich an alle bestehenden Datenschutz-, Sicherheits- und Compliance-Verpflichtungen für kommerzielle Microsoft 365-Kunden. Weitere Informationen finden Sie unter Microsoft Compliance.
Über die Einhaltung der Vorschriften hinaus legen wir großen Wert auf einen offenen Dialog mit unseren Kunden, Partnern und Rechtsgrundlagenbehörden, um Bedenken besser zu verstehen und auszuräumen und so ein Klima des Vertrauens und der Zusammenarbeit zu fördern. Wir sind uns darüber im Klaren, dass Datenschutz, Sicherheit und Transparenz in der KI-getriebenen Landschaft bei Microsoft nicht nur Merkmale, sondern Voraussetzungen sind.
Weitere Informationen
Microsoft 365 Copilot und Datenschutzkontrollen für verbundene Erfahrungen
Einige Datenschutzkontrollen für verbundene Erfahrungen in Microsoft 365 Apps können sich auf die Verfügbarkeit von Microsoft 365 Copilot-Features auswirken. Dies umfasst die Datenschutzkontrollen für verbundene Erfahrungen, die Ihre Inhalte analysieren, und die Datenschutzkontrollen für optionale verbundene Erfahrungen. Weitere Informationen zu diesen Datenschutzkontrollen finden Sie unter Übersicht über Datenschutzkontrollen für Microsoft 365 Apps for Enterprise.
Datenschutzkontrolle für verbundene Erfahrungen, die Ihre Inhalte analysieren
Wenn Sie verbundene Erfahrungen deaktivieren, die Ihre Inhalte auf Geräten in Ihrem organization analysieren, stehen ihren Benutzern in den folgenden Apps Microsoft 365 Copilot Features nicht zur Verfügung:
- Excel
- OneNote
- Outlook
- PowerPoint
- Word
Dies gilt für, wenn Sie die aktuellste Version dieser Apps auf Windows-, Mac-, iOS- oder Android-Geräten ausführen.
Es gibt auch eine Datenschutzkontrolle, die alle verbundenen Erfahrungen deaktiviert, einschließlich verbundener Erfahrungen, die Ihre Inhalte analysieren. Wenn Sie dieses Datenschutzsteuerelement verwenden, sind Microsoft 365 Copilot Features in den apps und auf den oben beschriebenen Geräten nicht verfügbar.
Datenschutzkontrolle für optionale verbundene Erfahrungen
Wenn Sie optionale verbundene Erfahrungen in Ihrer Organisation deaktivieren, stehen Ihren Benutzern Microsoft 365 Copilot-Features, die optionale verbundene Erfahrungen sind, nicht zur Verfügung. Beispielsweise kann sich das Deaktivieren optionaler verbundener Erfahrungen auf die Verfügbarkeit der Websuche auswirken.
Es gibt auch eine Datenschutzkontrolle, die alle verbundenen Erfahrungen deaktiviert, einschließlich optionaler verbundener Erfahrungen. Wenn Sie diese Datenschutzkontrolle verwenden, sind Microsoft 365 Copilot-Features, die optionale verbundene Erfahrungen sind, nicht verfügbar.
Über die Inhalte, die Microsoft 365 Copilot erstellt
Die Antworten, die generative KI erzeugt, sind nicht garantiert zu 100 % sachlich. Wir arbeiten zwar weiterhin an der Verbesserung der Antworten, aber die Benutzer sollten dennoch ihr Urteilsvermögen verwenden, wenn sie die Ausgabe überprüfen, bevor sie sie an andere weiterleiten. Unsere Microsoft 365 Copilot-Funktionen liefern nützliche Entwürfe und Zusammenfassungen, mit denen Sie mehr erreichen können, während Sie die Möglichkeit haben, die Antworten der KI zu überprüfen, anstatt diese Aufgaben vollständig zu automatisieren.
Wir arbeiten weiterhin an der Verbesserung von Algorithmen, um proaktiv Probleme wie Fehlinformationen und Desinformation, Inhaltsblockierung, Datensicherheit und Verhindern von Werbung für schädliche oder diskriminierende Inhalte im Einklang mit unseren verantwortungsvollen KI-Grundsätzen zu reagieren.
Microsoft erhebt keinen Anspruch auf das Eigentum an der Ausgabe des Dienstes. Wir entscheiden jedoch nicht darüber, ob die Ausgabe eines Kunden urheberrechtlich geschützt oder gegenüber anderen Benutzern durchsetzbar ist. Das liegt daran, dass generative KI-Systeme ähnliche Antworten auf ähnliche Eingabeaufforderungen oder Anfragen von mehreren Kunden geben können. Folglich können mehrere Kunden Rechte an denselben oder im Wesentlichen ähnlichen Inhalten haben oder beanspruchen.
Wenn ein Dritter einen kommerziellen Kunden wegen Urheberrechtsverletzungen verklagt, weil er Microsofts Copilots oder die von ihnen erzeugte Ausgabe verwendet, verteidigen wir den Kunden und übernehmen die Kosten für nachteilige Urteile oder Vergleiche, die sich aus dem Rechtsstreit ergeben, sofern der Kunde die Schutzmechanismen und Inhaltsfilter verwendet hat, die wir in unsere Produkte eingebaut haben. Weitere Informationen finden Sie unter Microsoft kündigt neue Copilot Copyrightverpflichtung für Kunden an.
Wie blockiert Copilot schädliche Inhalte?
Der Azure OpenAI-Dienst enthält ein Inhaltsfiltersystem, das zusammen mit Kernmodellen funktioniert. Die Inhaltsfiltermodelle für die Kategorien Hass und Fairness, sexuelle Gewalt, Gewalt und Selbstverletzung wurden speziell in verschiedenen Sprachen trainiert und getestet. Dieses System funktioniert, indem sowohl die Eingabeeingabeaufforderung als auch die Antwort über Klassifizierungsmodelle ausgeführt werden, die entwickelt wurden, um die Ausgabe schädlicher Inhalte zu identifizieren und zu blockieren.
Hass- und Fairness-bezogene Schäden beziehen sich auf alle Inhalte, die abwertende oder diskriminierende Sprache aufgrund von Attributen wie Rasse, ethnischer Zugehörigkeit, Nationalität, Geschlechtsidentität und -ausdruck, sexueller Orientierung, Religion, Einwanderungsstatus, Fähigkeitsstatus, persönlichem Aussehen und Körpergröße verwenden. Bei Fairness geht es darum, sicherzustellen, dass KI-Systeme alle Personengruppen gleich behandeln, ohne zu bestehenden gesellschaftlichen Ungleichheiten beizutragen. Sexuelle Inhalte umfassen Diskussionen über menschliche Fortpflanzungsorgane, romantische Beziehungen, erotisch oder zärtlich dargestellte Handlungen, Schwangerschaft, körperliche sexuelle Handlungen, einschließlich solcher, die als Angriff oder erzwungene Handlung sexueller Gewalt, Prostitution, Pornografie und Missbrauch dargestellt werden. Gewalt beschreibt Sprache im Zusammenhang mit körperlichen Handlungen, die darauf abzielen, Schaden zuzufügen oder zu töten, einschließlich Handlungen, Waffen und verwandter Einheiten. Selbstverletzungssprache bezieht sich auf vorsätzliche Handlungen, die dazu dienen, sich selbst zu verletzen oder zu töten.
Erfahren Sie mehr über die Azure OpenAI-Inhaltsfilterung.
Bietet Copilot eine Erkennung geschützter Materialien?
Ja, Microsoft 365 Copilot bietet Erkennung von geschützten Materialien, einschließlich Text, der dem Copyright unterliegt, und Code, der Lizenzbeschränkungen unterliegt. Nicht alle diese Risikominderungen sind für alle Microsoft 365 Copilot-Szenarien relevant.
Blockiert Copilot Prompt-Injektionen (Jailbreak-Angriffe)?
Jailbreak-Angriffe sind Benutzeraufforderungen, die das generative KI-Modell dazu bringen sollen, sich so zu verhalten, wie es trainiert wurde, oder die Regeln zu brechen, die es befolgen soll. Microsoft 365 Copilot wurde entwickelt, um vor Prompt-Injection-Angriffen zu schützen. Weitere Informationen zu Jailbreak-Angriffe, und wie Sie Azure AI Content Safety verwenden, um sie zu erkennen..
Verpflichtet zu verantwortungsvoller KI
Da die KI im Begriff ist, unser Leben zu verändern, müssen wir gemeinsam neue Regeln, Normen und Praktiken für den Einsatz und die Auswirkungen dieser Technologie festlegen. Microsoft ist seit 2017 auf dem Weg der verantwortungsvollen KI, als wir unsere Prinzipien und unseren Ansatz definiert haben, um sicherzustellen, dass diese Technologie auf eine Weise eingesetzt wird, die von ethischen Prinzipien gesteuert wird, die Menschen an erster Stelle setzen.
Bei Microsoft orientieren wir uns an unseren KI-Prinzipien, unserem Standard für verantwortungsvolle KI und jahrzehntelanger Forschung zu KI, Erdung und datenschutzgerechtem maschinellem Lernen. Ein multidisziplinäres Team aus Forscher*innen, Ingenieur*innen und Richtlinienexpert*innen überprüft unsere KI-Systeme auf potenzielle Gefahren und ergreift Gegenmaßnahmen: Optimieren der Trainingsdaten, Filterung zur Begrenzung schädlicher Inhalte, Abfragen- und Ergebnisblockierung bei heiklen Themen und Anwenden von Microsoft-Technologien wie InterpretML und Fairlearn, um Datenverzerrung zu erkennen und zu korrigieren. Wir machen deutlich, wie das System Entscheidungen trifft, indem wir auf Einschränkungen hinweisen, auf Quellen verlinken und die Benutzer auffordern, Inhalte zu überprüfen, zu verifizieren und auf der Grundlage ihrer Fachkenntnisse anzupassen. Weitere Informationen finden Sie unter KI-Governance: Ein Plan für die Zukunft.
Wir wollen unsere Kunden dabei unterstützen, unsere KI-Produkte verantwortungsvoll zu nutzen, unsere Erfahrungen zu teilen und vertrauensvolle Partnerschaften aufzubauen. Für diese neuen Dienste möchten wir unseren Kunden Informationen zu den beabsichtigten Verwendungszwecken, Funktionen und Einschränkungen unseres KI-Plattformdienstes zur Verfügung stellen, damit sie über das nötige Wissen verfügen, um verantwortungsbewusste Entscheidungen für den Einsatz zu treffen. Wir geben auch Ressourcen und Vorlagen für Entwickler innerhalb von Organisationen und für unabhängige Softwareanbieter (ISVs) frei, damit diese effektive, sichere und transparente KI-Lösungen entwickeln können.