Teilen über


Datenschutz, Sicherheit und verantwortungsvolle Nutzung von Copilot in Fabric

Bevor Ihr Unternehmen mit der Verwendung von Copilot in Fabric beginnt, haben Sie möglicherweise Fragen dazu, wie es funktioniert, wie sie Ihre Geschäftsdaten sicher hält und den Datenschutzanforderungen entspricht, und wie Sie generative KI verantwortungsbewusst verwenden.

Dieser Artikel enthält Antworten auf häufig gestellte Fragen im Zusammenhang mit Unternehmensdatensicherheit und Datenschutz, um Ihrer Organisation bei den ersten Schritten mit Copilot in Fabric zu helfen. Der Artikel Datenschutz, Sicherheit und verantwortungsvolle Verwendung für Copilot in Power BI (Vorschau) bietet eine Übersicht über Copilot in Power BI. Weitere Informationen zu Copilot für Fabric finden Sie weiter.

Anmerkung

Ihre Geschäftsdaten sind sicher

  • Die Copilot-Features verwenden den Azure OpenAI Service-Dienst, der vollständig von Microsoft gesteuert wird. Ihre Daten werden nicht zum Trainieren von Modellen verwendet und stehen anderen Kunden nicht zur Verfügung.
  • Sie behalten die Kontrolle darüber, wo Ihre Daten verarbeitet werden. Daten, die von Copilot in Fabric verarbeitet werden, verbleiben innerhalb der geografischen Region Ihres Mandanten, es sei denn, Sie erlauben explizit, dass Daten außerhalb Ihrer Region verarbeitet werden, z. B. damit Ihre Benutzer Copilot verwenden können, wenn Azure OpenAI aufgrund hoher Nachfrage nicht in Ihrer Region oder Verfügbarkeit verfügbar ist. Hier erfahren Sie mehr über Administratoreinstellungen für Copilot.
  • Copilot speichert Ihre Daten nicht zur Missbrauchsüberwachung. Um den Datenschutz und das Vertrauen zu verbessern, haben wir unseren Ansatz zur Missbrauchsüberwachung aktualisiert: Zuvor haben wir Daten aus Copilot in Fabric bis zu 30 Tage aufbewahrt, die Eingaben und Ausgaben von Prompts enthalten, um diese auf Missbrauch oder Missbrauch zu prüfen. Nach Kundenfeedback haben wir diese 30-tägige Aufbewahrung eliminiert. Jetzt speichern wir keine eingabeaufforderungsbezogenen Daten mehr und zeigen unser unerschütterliches Engagement für Ihre Privatsphäre und Sicherheit.

Überprüfen Sie die Ausgänge von Copilot, bevor Sie sie verwenden.

  • Die Antworten von Copilot können ungenaue oder qualitativ minderwertige Inhalte enthalten. Überprüfen Sie daher unbedingt die Ausgaben, bevor Sie diese für Ihre Arbeit verwenden.
  • Personen, die die Genauigkeit und Angemessenheit des Inhalts sinnvoll bewerten können, sollten die Ausgaben überprüfen.
  • Heute funktionieren Copilot Features am besten in der englischen Sprache. Andere Sprachen funktionieren möglicherweise nicht so gut.

Wichtig

Informationen zu den Nutzungsbedingungen für Vorschauversionen von Microsoft Generative AI Service finden Sie in den zusätzlichen Vorschaubedingungen für Fabric.

Funktionsweise von Copilot

In diesem Artikel bezieht sich Copilot auf eine Reihe von generativen KI-Features und -Funktionen in Fabric, die von Azure OpenAI Service unterstützt werden.

Im Allgemeinen werden diese Features entwickelt, um natürliche Sprache, Code oder andere Inhalte basierend auf folgenden Inhalten zu generieren:

(a) Eingaben, die Sie bereitstellen, und

(b) Groundingdaten, auf die das Feature zugreifen kann

Beispielsweise bieten Power BI, Data Factory und Data Science Copilot Chats an, in denen Sie Fragen stellen und Antworten erhalten können, die in Ihren Daten kontextbezogen sind. Copilot für Power BI kann auch Berichte und andere Visualisierungen erstellen. Copilot für Data Factory kann Ihre Daten transformieren und erläutern, welche Schritte angewendet wurden. Data Science bietet Copilot Features außerhalb des Chatbereichs, z. B. benutzerdefinierte IPython-Zauberbefehle in Notizbüchern. Copilot-Chats können zusammen mit anderen Funktionen, die im Hintergrund von Azure OpenAI unterstützt werden, zu anderen Umgebungen in Fabric hinzugefügt werden.

Diese Informationen werden an den Azure OpenAI-Dienst gesendet, wo sie verarbeitet und eine Ausgabe generiert wird. Aus diesem Grund können von Azure OpenAI verarbeitete Daten folgendes umfassen:

Erdungsdaten können eine Kombination aus Datasetschema, bestimmten Datenpunkten und anderen Informationen enthalten, die für die aktuelle Aufgabe des Benutzers relevant sind. Überprüfen Sie jeden Erfahrungsabschnitt auf Details, welche Daten in diesem Szenario für Copilot-Features zugänglich sind.

Interaktionen mit Copilot sind für jeden Benutzer spezifisch. Dies bedeutet, dass Copilot nur auf Daten zugreifen kann, auf die der aktuelle Benutzer über die Berechtigung zum Zugreifen verfügt, und seine Ausgaben sind nur für diesen Benutzer sichtbar, es sei denn, der Benutzer gibt die Ausgabe für andere frei, z. B. das Freigeben eines generierten Power BI-Berichts oder generierten Codes. Copilot verwendet keine Daten von anderen Benutzenden im selben Mandanten oder in weiteren Mandanten.

Copilot verwendet Azure OpenAI anstelle der öffentlich verfügbaren OpenAI-Dienste, um alle Daten zu verarbeiten, einschließlich Benutzereingaben, Verankerungsdaten und Copilot-Ausgaben. Copilot verwendet derzeit eine Kombination aus GPT-Modellen, einschließlich GPT 3.5. Microsoft hostt die OpenAI-Modelle in der Microsoft Azure-Umgebung, und der Dienst interagiert nicht mit Diensten von OpenAI, z. B. ChatGPT oder der OpenAI-API. Ihre Daten werden nicht zum Trainieren von Modellen verwendet und stehen anderen Kunden nicht zur Verfügung. Erfahren Sie mehr über Azure OpenAI.

Copilot-Prozess

Diese Features folgen dem gleichen allgemeinen Prozess:

  1. Copiloterhält eine Eingabeaufforderung von einem Benutzer. Diese Eingabeaufforderung könnte sich in Form einer Frage befinden, die ein Benutzer in einen Chatbereich eingibt, oder in Form einer Aktion, z. B. auswählen einer Schaltfläche mit dem Text "Bericht erstellen".
  2. Copilot verarbeitet den Prompt durch einen Ansatz, der als Grounding bezeichnet wird. Je nach Szenario kann dies das Abrufen relevanter Daten wie Datasetschema oder Chatverlauf aus der aktuellen Sitzung des Benutzers mit Copilotumfassen. Das Grounding verbessert die Spezifität des Prompts, wodurch Benutzende Antworten erhalten, die für ihre spezifischen Aufgaben relevant und umsetzbar sind. Der Datenabruf beschränkt sich auf Daten, die dem authentifizierten Benutzer basierend auf seinen Berechtigungen zugänglich sind. Lesen Sie im Abschnitt Welche Daten verwendet Copilot und wie wird diese verarbeitet? in diesem Artikel weitere Informationen.
  3. Copilot übernimmt die Antwort von Azure OpenAI und verarbeitet sie. Je nach Szenario kann diese Nachverarbeitung verantwortungsvolle KI-Prüfungen, Filterung mit Azure-Inhaltsmoderation oder zusätzliche geschäftsspezifische Einschränkungen umfassen.
  4. Copilotgibt eine Antwort an den Benutzer in Form natürlicher Sprache, Code oder anderer Inhaltezurück. Eine Antwort kann z. B. in Form einer Chatnachricht oder eines generierten Codes erfolgen, oder es kann sich um ein kontextbezogenes Formular wie einen Power BI-Bericht oder eine Synapse-Notizbuchzelle sein.
  5. Der Benutzer überprüft die Antwort, bevor sieverwendet wird. Copilot Antworten können ungenaue oder qualitativ minderwertige Inhalte enthalten, daher ist es wichtig, dass Fachleute die Ausgaben überprüfen, bevor sie diese verwenden oder freigeben.

Genau wie jede Benutzeroberfläche in Fabric für bestimmte Szenarien und Personas erstellt wird – von Dateningenieuren bis hin zu Datenanalysten – wurde jedes Copilot Feature in Fabric auch mit einzigartigen Szenarien und Benutzern erstellt. Weitere Informationen zu den Features, beabsichtigten Anwendungszwecken und Einschränkungen entnehmen Sie den entsprechenden Abschnitten für die Umgebung, die Sie verwenden möchten.

Definitionen

Prompt oder Eingabe

Der Text oder die Aktion, der von einem Benutzer an Copilot übermittelt wird. Dies kann in Form einer Frage sein, die ein Benutzer in einen Chatbereich eingibt, oder in Form einer Aktion, z. B. das Auswählen einer Schaltfläche mit dem Text "Bericht erstellen".

Grounding

Eine Vorverarbeitungsmethode, bei der Copilot zusätzliche Daten abruft, die mit der Aufforderung des Benutzers kontextbezogen sind, und sendet diese Daten dann zusammen mit der Eingabeaufforderung des Benutzers an Azure OpenAI, um eine relevantere und umsetzbare Antwort zu generieren.

Antwort oder Ausgabe

Der Inhalt, der Copilot an einen Benutzer zurückgibt. Eine Antwort kann z. B. in Form einer Chatnachricht oder generiertem Code erfolgen, oder es kann kontextbezogene Inhalte wie einen Power BI-Bericht oder eine Synapse-Notizbuchzelle sein.

Welche Daten verwendet Copilot und wie werden sie verarbeitet?

Um eine Antwort zu generieren, verwendet Copilot Folgendes:

  • Prompts oder Eingaben der Benutzenden und gegebenenfalls
  • Zusätzliche Daten, die über den Erdungsprozess abgerufen werden.

Diese Informationen werden an den Azure OpenAI-Dienst gesendet, wo sie verarbeitet und eine Ausgabe generiert wird. Aus diesem Grund können von Azure OpenAI verarbeitete Daten folgendes umfassen:

  • Prompts oder Eingaben der Benutzenden
  • Groundingdaten
  • Die KI-Antwort oder -Ausgabe.

Erdungsdaten können eine Kombination aus Datasetschema, bestimmten Datenpunkten und anderen Informationen enthalten, die für die aktuelle Aufgabe des Benutzers relevant sind. Überprüfen Sie jeden Erfahrungsabschnitt auf Einzelheiten dazu, welche Daten in diesem Szenario für Copilot-Merkmale zugänglich sind.

Interaktionen mit Copilot sind für jeden Benutzer spezifisch. Dies bedeutet, dass Copilot nur auf Daten zugreifen kann, auf die der aktuelle Benutzer über die Berechtigung zum Zugreifen verfügt, und seine Ausgaben sind nur für diesen Benutzer sichtbar, es sei denn, der Benutzer gibt die Ausgabe für andere frei, z. B. das Freigeben eines generierten Power BI-Berichts oder generierten Codes. Copilot verwendet keine Daten von anderen Benutzenden im selben Mandanten oder in weiteren Mandanten.

Copilot verwendet Azure OpenAI, nicht die öffentlich verfügbaren Dienste von OpenAI, um alle Daten zu verarbeiten, einschließlich Benutzereingaben, Grundlagendaten und Copilot Outputs. Copilot verwendet derzeit eine Kombination aus GPT-Modellen, einschließlich GPT 3.5. Microsoft hostt die OpenAI-Modelle in der Azure-Umgebung von Microsoft und der Dienst interagiert nicht mit Diensten von OpenAI (z. B. ChatGPT oder der OpenAI-API). Ihre Daten werden nicht zum Trainieren von Modellen verwendet und stehen anderen Kunden nicht zur Verfügung. Erfahren Sie mehr über Azure OpenAI.

Datenresidenz und Compliance

Sie behalten die Kontrolle darüber, wo Ihre Daten verarbeitet werden. Daten, die von Copilot in Fabric verarbeitet werden, verbleiben innerhalb der geografischen Region Ihres Mandanten, es sei denn, Sie erlauben explizit, dass Daten außerhalb Ihrer Region verarbeitet werden, z. B. damit Ihre Benutzer Copilot verwenden können, wenn Azure OpenAI aufgrund hoher Nachfrage nicht in Ihrer Region oder Verfügbarkeit verfügbar ist. (Siehe , wo Azure OpenAI derzeit verfügbar ist.)

Damit Ihre Daten an anderer Stelle verarbeitet werden können, kann Ihr Administrator die Einstellung aktivieren: Daten, die an Azure OpenAI gesendet werden, können außerhalb der geografischen Region Ihres Mandanten, der Compliance-Grenze oder der nationalen Cloudinstanzverarbeitet werden. Erfahren Sie mehr über die Admin-Einstellungen für Copilot.

Was sollte ich wissen, Copilot verantwortungsbewusst zu verwenden?

Microsoft verpflichtet sich, sicherzustellen, dass unsere KI-Systeme von unseren KI-Prinzipien und Responsible AI Standardgeleitet werden. Zu diesen Grundsätzen gehört es, unseren Kunden die Möglichkeit zu geben, diese Systeme effektiv und im Einklang mit ihren beabsichtigten Anwendungen zu nutzen. Unser Ansatz für verantwortungsvolle KI entwickelt sich ständig weiter, um entstehende Themen proaktiv anzugehen.

Copilot Features in Fabric werden entwickelt, um den Responsible AI Standard zu erfüllen, was bedeutet, dass sie von multidisziplinären Teams auf potenzielle Schäden überprüft werden, und dann verfeinert, um Gegenmaßnahmen für diese Schäden einzuschließen.

Beachten Sie vor der Verwendung von Copilotdie Einschränkungen von Copilot:

  • Die Antworten von Copilot können ungenaue oder qualitativ minderwertige Inhalte enthalten. Überprüfen Sie daher unbedingt die Ausgaben, bevor Sie diese für Ihre Arbeit verwenden.
  • Personen, die in der Lage sind, die Genauigkeit und Angemessenheit des Inhalts sinnvoll auszuwerten, sollten die Ausgaben überprüfen.
  • Derzeit funktionieren Copilot Features am besten in der englischen Sprache. Andere Sprachen funktionieren möglicherweise nicht so gut.

Copilot für Fabric-Workloads

Datenschutz, Sicherheit und verantwortungsvolle Verwendung für: