Datenschutz, Sicherheit und der verantwortungsvolle Umgang mit Copilot in Fabric

Bevor Ihr Unternehmen mit der Verwendung von Copilot in Fabric beginnt, haben Sie möglicherweise Fragen dazu, wie der Dienst funktioniert, wie er Ihre Geschäftsdaten schützt und den Datenschutzanforderungen entspricht und wie Sie generative KI verantwortungsbewusst verwenden können.

In diesem Artikel finden Sie Antworten auf häufig gestellte Fragen im Zusammenhang mit Datensicherheit und Datenschutz in Unternehmen, die Ihre Organisation bei den ersten Schritten mit Copilot in Fabric unterstützen. Der Artikel Datenschutz, Sicherheit und verantwortungsvolle Nutzung für Copilot in Power BI (Vorschau) bietet einen Überblick über Copilot in Power BI. Weitere Informationen zu Copilot für Fabric finden Sie hier.

Hinweis

Schutz Ihrer Geschäftsdaten

  • Copilot-Features verwenden den Dienst Azure OpenAI Servic, der vollständig von Microsoft gesteuert wird. Ihre Daten werden nicht zum Trainieren von Modellen verwendet und sind nicht für anderen Kunden verfügbar.
  • Sie behalten die Kontrolle darüber, wo Ihre Daten verarbeitet werden. Daten, die von Copilot in Fabric verarbeitet werden, verbleiben innerhalb der geografischen Region Ihres Mandanten, es sei denn, Sie erlauben explizit, dass Daten außerhalb Ihrer Region verarbeitet werden. Dadurch könnten Ihre Benutzer*innen Copilot weiterhin verwenden, wenn Azure OpenAI in Ihrer Region oder aufgrund einer hohen Nachfrage nicht verfügbar ist. Weitere Informationen finden Sie unter Administratoreinstellungen für Copilot.
  • Copilot speichert die Daten nicht zur Missbrauchsüberwachung. Zur Stärkung von Datenschutz und Vertrauen haben wir unseren Ansatz zur Missbrauchsüberwachung überarbeitet. Bislang haben wir Daten aus Copilot (darunter Ein- und Ausgaben aus Prompts) zur Überprüfung auf Missbrauch bis zu 30 Tage in Fabric aufbewahrt. Aufgrund von Kundenfeedback haben wir diese 30-tägige Aufbewahrung abgeschafft. Ab sofort speichern wir keine promptbezogenen Daten mehr. Damit zeigen wir unser unerschütterliches Engagement für die Themen Datenschutz und Sicherheit.

Überprüfen von Copilot-Ausgaben vor ihrer Verwendung

  • Copilot-Antworten können ungenaue oder qualitativ minderwertige Inhalte enthalten. Überprüfen Sie daher unbedingt die Ausgaben, bevor Sie diese für Ihre Arbeit verwenden.
  • Die Ausgaben sollten von Personen überprüft werden, die die Genauigkeit und Angemessenheit des Inhalts sinnvoll bewerten können.
  • Derzeit funktionieren Copilot-Features am besten in der englischen Sprache. Andere Sprachen funktionieren möglicherweise weniger gut.

Wichtig

Informationen zu den Nutzungsbedingungen für Vorschauversionen von Microsoft Generative AI Service finden Sie in den zusätzlichen Vorschaubedingungen für Fabric.

Funktionsweise von Copilot

In diesem Artikel bezieht sich Copilot auf eine Reihe generativer KI-Features und -Funktionen in Fabric, die von Azure OpenAI Service unterstützt werden.

Diese Features sind im Allgemeinen dazu konzipiert, natürliche Sprache, Code oder andere Inhalte basierend auf den folgenden Inhalten zu generieren:

(a) Eingaben, die Sie bereitstellen und

(b) Groundingdaten, auf die das Feature zugreifen kann

Power BI, Data Factory und Data Science stellen beispielsweise Copilot-Chats bereit, in denen Sie Fragen stellen und Antworten erhalten können, die sich auf den Kontext Ihre Daten beziehen. Copilot for Power BI kann außerdem Berichte und andere Visualisierungen erstellen. Copilot für Data Factory kann Ihre Daten transformieren und erläutern, welche Schritte angewendet wurden. Data Science bietet Copilot-Features außerhalb des Chatbereichs wie benutzerdefinierte IPython-Magic-Befehle in Notebooks. Copilot-Chats können anderen Umgebungen in Fabric hinzugefügt werden, zusammen mit weiteren Features, die von Azure OpenAI unter der Haube unterstützt werden.

Diese Informationen werden an Azure OpenAI Service gesendet, wo sie verarbeitet werden und eine Ausgabe generiert wird. Daher können von Azure OpenAI verarbeitete Daten Folgendes umfassen:

Groundingdaten können eine Kombination aus Datasetschemata, bestimmten Datenpunkten und anderen Informationen enthalten, die für die aktuellen Aufgaben der Benutzer*innen relevant sind. Lesen Sie jeden Abschnitt, um mehr darüber zu erfahren, auf welche Daten die Copilot-Features in diesem Szenario Zugriff haben.

Interaktionen mit Copilot sind für alle Benutzer*innen spezifisch. Dies bedeutet, dass Copilot lediglich auf Daten zugreifen kann, auf die die aktuellen Benutzer*innen zugreifen können. Zudem sind Copilot-Ausgaben lediglich für diese Benutzer*innen sichtbar, es sei denn, sie geben die Ausgabe für andere frei, indem sie beispielsweise einen generierten Power BI-Bericht oder generierten Code freigeben. Copilot verwendet keine Daten von anderen Benutzer*innen im selben Mandanten oder anderen Mandanten.

Copilot verwendet Azure OpenAI, um alle Daten zu verarbeiten, einschließlich Benutzereingaben, Groundingdaten und Copilot-Ausgaben. Dabei handelt es sich jedoch nicht um die öffentlich verfügbaren OpenAI-Dienste. Copilot verwendet derzeit eine Kombination aus GPT-Modellen, einschließlich GPT 3.5. Microsoft hostet die OpenAI-Modelle in der Microsoft Azure-Umgebung, und der Dienst interagiert nicht mit Diensten von OpenAI wie ChatGPT oder der OpenAI-API. Ihre Daten werden nicht zum Trainieren von Modellen verwendet und sind nicht für anderen Kunden verfügbar. Weitere Informationen zu Azure OpenAI.

Der Copilot-Prozess

Diese Features folgen demselben allgemeinen Prozess:

  1. Copiloterhält einen Prompt von Benutzer*innen. Dieser Prompt könnte als Frage formuliert sein, die Benutzer*innen in einen Chatbereich eingeben, oder es könnte sich dabei um eine Aktion wie das Auswählen einer Schaltfläche mit dem Text „Bericht erstellen“ handeln.
  2. Copilot verarbeitet den Prompt durch einen Ansatz, der als Grounding bezeichnet wird. Je nach Szenario kann dies das Abrufen relevanter Daten wie das Datasetschema oder der Chatverlauf aus der aktuellen Copilot-Sitzung von Benutzer*innen umfassen. Das Grounding verbessert die Spezifität des Prompts, wodurch Benutzer*innen Antworten erhalten, die für ihre spezifischen Aufgaben relevant und umsetzbar sind. Der Datenabruf ist auf Daten ausgerichtet, auf die authentifizierte Benutzer*innen basierend auf ihren Berechtigungen zugreifen können. Weitere Informationen finden Sie im Abschnitt Welche Daten verwendet Copilot und wie werden diese verarbeitet? in diesem Artikel.
  3. Copilot übernimmt die Antwort von Azure OpenAI und verarbeitet diese nach. Abhängig vom jeweiligen Szenario kann diese Nachverarbeitung Überprüfungen auf verantwortungsvolle KI-Nutzung, Filterung mit der Azure-Inhaltsmoderation oder zusätzliche geschäftsspezifische Einschränkungen umfassen.
  4. Copilotgibt eine Antwort an Benutzer*innen in natürlicher Sprache, als Code oder anderen Inhalt zurück. Eine Antwort könnte beispielsweise als Chatnachricht oder generierter Code erfolgen, oder es könnte sich um ein kontextbezogenes Formular wie einen Power BI-Bericht oder eine Synapse-Notebookzelle handeln.
  5. Benutzer*innen überprüfen die Antwort, bevor sie diese verwenden. Copilot-Antworten können ungenaue oder qualitativ schlechte Inhalte enthalten. Daher ist es wichtig, dass Expert*innen die Ausgaben vor der Verwendung oder Freigabe überprüfen.

Genau wie jede Umgebung in Fabric für bestimmte Szenarios und Personen wie technische Fachkräfte für Daten und Data Analysts entwickelt wurde, wurde jedes Copilot-Feature in Fabric ebenfalls für spezielle Szenarios und Benutzergruppen entwickelt. Weitere Informationen zu den Funktionen, beabsichtigten Anwendungszwecken und Einschränkungen entnehmen Sie den entsprechenden Abschnitten für die Umgebung, die Sie verwenden möchten.

Definitionen

Prompt oder Eingabe

Dabei handelt es sich um den Text oder die Aktion, die von Benutzer*innen an Copilot übermittelt werden. Diese könnten als Frage formuliert sein, die Benutzer*innen in einen Chatbereich eingeben, oder es könnte sich dabei um eine Aktion wie das Auswählen einer Schaltfläche mit dem Text „Bericht erstellen“ handeln.

Grounding

Bei dieser Vorverarbeitungsmethode ruft Copilot zusätzliche Daten ab, die sich auf den Kontext des Benutzerprompts beziehen. Diese Daten werden daraufhin zusammen mit dem Benutzerprompt an Azure OpenAI gesendet, um eine relevantere und umsetzbare Antwort zu generieren.

Antwort oder Ausgabe

Dabei handelt es sich um den Inhalt, den Copilot an Benutzer*innen zurückgibt. Eine Antwort könnte beispielsweise als Chatnachricht oder generierter Code erfolgen, oder es könnte sich um kontextbezogene Inhalte wie einen Power BI-Bericht oder eine Synapse-Notebookzelle handeln.

Welche Daten verwendet Copilot und wie werden diese verarbeitet?

Um eine Antwort zu generieren, verwendet Copilot Folgendes:

  • Prompts oder Eingaben der Benutzer*innen und gegebenenfalls
  • Zusätzliche Daten, die über den Groundingprozess abgerufen werden

Diese Informationen werden an Azure OpenAI Service gesendet, wo sie verarbeitet werden und eine Ausgabe generiert wird. Daher können von Azure OpenAI verarbeitete Daten Folgendes umfassen:

  • Prompts oder Eingaben der Benutzer*innen
  • Groundingdaten
  • Die KI-Antwort oder -Ausgabe

Groundingdaten können eine Kombination aus Datasetschemata, bestimmten Datenpunkten und anderen Informationen enthalten, die für die aktuellen Aufgaben der Benutzer*innen relevant sind. Lesen Sie jeden Abschnitt, um mehr darüber zu erfahren, auf welche Daten die Copilot-Features in diesem Szenario Zugriff haben.

Interaktionen mit Copilot sind für alle Benutzer*innen spezifisch. Dies bedeutet, dass Copilot lediglich auf Daten zugreifen kann, auf die die aktuellen Benutzer*innen zugreifen können. Zudem sind Copilot-Ausgaben lediglich für diese Benutzer*innen sichtbar, es sei denn, sie geben die Ausgabe für andere frei, indem sie beispielsweise einen generierten Power BI-Bericht oder generierten Code freigeben. Copilot verwendet keine Daten von anderen Benutzer*innen im selben Mandanten oder anderen Mandanten.

Copilot verwendet Azure OpenAI, um alle Daten zu verarbeiten, einschließlich Benutzereingaben, Groundingdaten und Copilot-Ausgaben. Dabei handelt es sich jedoch nicht um die öffentlich verfügbaren OpenAI-Dienste. Copilot verwendet derzeit eine Kombination aus GPT-Modellen, einschließlich GPT 3.5. Microsoft hostet die OpenAI-Modelle in der Microsoft Azure-Umgebung, und der Dienst interagiert nicht mit Diensten von OpenAI wie ChatGPT oder der OpenAI-API. Ihre Daten werden nicht zum Trainieren von Modellen verwendet und sind nicht für anderen Kunden verfügbar. Weitere Informationen zu Azure OpenAI.

Datenresidenz und Compliance

Sie behalten die Kontrolle darüber, wo Ihre Daten verarbeitet werden. Daten, die von Copilot in Fabric verarbeitet werden, verbleiben innerhalb der geografischen Region Ihres Mandanten, es sei denn, Sie erlauben explizit, dass Daten außerhalb Ihrer Region verarbeitet werden. Dadurch könnten Ihre Benutzer*innen Copilot weiterhin verwenden, wenn Azure OpenAI in Ihrer Region oder aufgrund einer hohen Nachfrage nicht verfügbar ist. (Weitere Informationen finden Sie unter Derzeitige regionale Verfügbarkeit von Azure OpenAI.)

Ihre Administrator*innen können die Datenverarbeitung an anderer Stelle zulassen, indem sie die folgende Einstellung aktivieren: An Azure OpenAI gesendete Daten dürfen außerhalb der geografischen Region, der Compliancegrenze oder der nationalen Cloudinstanz Ihres Mandanten verarbeitet werden. Weitere Informationen finden Sie unter Administratoreinstellungen für Copilot.

Was sollte ich für einen verantwortungsvollen Umgang mit Copilot wissen?

Microsoft verpflichtet sich dazu, sicherzustellen, dass unsere KI-Systeme durch unsere KI-Prinzipien und unseren Standard für verantwortungsvolle KI-Nutzung geleitet werden. Zu diesen Prinzipien gehört es, unseren Kunden die Möglichkeit zu geben, diese Systeme effektiv und im Einklang mit ihren beabsichtigten Anwendungszwecken zu nutzen. Unser Ansatz für eine verantwortungsvolle KI-Nutzung entwickelt sich ständig weiter, um Problemen vorzubeugen.

Copilot-Features in Fabric sind dazu konzipiert, den Standard für verantwortungsvolle KI-Nutzung zu erfüllen. Das bedeutet, dass sie von multidisziplinären Teams auf potenzielle Schwachstellen überprüft und anschließend mit entsprechenden Risikominderungen angepasst werden.

Bevor Sie Copilot verwenden, berücksichtigen Sie die Einschränkungen von Copilot:

  • Copilot-Antworten können ungenaue oder qualitativ schlechte Inhalte enthalten. Überprüfen Sie daher unbedingt die Ausgaben, bevor Sie diese für Ihre Arbeit verwenden.
  • Die Ausgaben sollten von Personen überprüft werden, die die Genauigkeit und Angemessenheit des Inhalts sinnvoll bewerten können.
  • Derzeit funktionieren Copilot-Features am besten in der englischen Sprache. Andere Sprachen funktionieren möglicherweise weniger gut.

Copilot für Fabric-Workloads

Datenschutz, Sicherheit und der verantwortungsvolle Umgang mit Folgendem: