Microsoft 365 Copilot のデータ、プライバシー、セキュリティ

Microsoft 365 Copilot は、次のコンポーネントを調整することで AI 搭載の仕事効率化機能を提供する、高度な処理およびオーケストレーション エンジンです。

  • 大規模言語モデル (LLM)
  • アクセス許可のあるメール、チャット、ドキュメントなどの Microsoft Graph 内のコンテンツ。
  • Word や PowerPoint など、皆様が毎日使用している Microsoft 365 の生産性アプリ。

これら 3 つのコンポーネントがどのように連携するかの概要については、「Microsoft 365 Copilot の概要」を参照してください。 Microsoft 365 Copilot に関連するその他のコンテンツへのリンクについては、「Microsoft 365 Copilot のドキュメント」を参照してください。

重要

  • Microsoft 365 Copilot は、一般データ保護規則 (GDPR) や欧州連合 (EU) のデータ境界など、Microsoft 365 の法人顧客に対する既存のプライバシー、セキュリティ、コンプライアンスの義務に準拠しています。
  • Microsoft Graph 経由でアクセスされるプロンプト、応答、データは、Microsoft 365 Copilot で使用されるものを含め、基礎 LLM のトレーニングには使用されません。
  • Microsoft 365 Copilot は、有害なコンテンツのブロック保護された素材の検出 および ブロックプロンプト インジェクション (脱獄攻撃) など複数の保護をしますが、これらに限定されません。

この記事の情報は、次の質問に対する回答を提供することを目的としています。

注:

Microsoft 365 Copilot は、新しい機能によって時間の経過と共に進化し続けます。 Microsoft 365 Copilot の最新情報を入手したり、質問したりするには、Microsoft Tech Community の Microsoft 365 Copilot コミュニティにアクセスしてください。

Microsoft 365 Copilot は独自の組織データをどのように使用しますか?

Microsoft 365 Copilot は、LLM を組織データに接続することで価値を提供します。 Microsoft 365 Copilot は、Microsoft Graph を通じてコンテンツとコンテキストにアクセスします。 ユーザー ドキュメント、メール、予定表、チャット、会議、連絡先など、組織データに固定された応答を生成できます。 Microsoft 365 Copilot は、ユーザーが現在参加している会議、ユーザーがトピックで行ったメール交換、ユーザーが先週行ったチャット会話など、ユーザーの作業コンテキストとこのコンテンツを組み合わせます。 Microsoft 365 Copilot は、このコンテンツとコンテキストの組み合わせを使用して、正確で関連性の高い、コンテキストに応じた応答を提供します。

重要

Microsoft Graph 経由でアクセスされるプロンプト、応答、データは、Microsoft 365 Copilot で使用されるものを含め、基礎 LLM のトレーニングには使用されません。

Microsoft 365 Copilot は、個々のユーザーが少なくとも表示アクセス許可を持っている組織データのみを表示します。 SharePoint などの Microsoft 365 サービスで利用可能なアクセス許可モデルを使用して、適切なユーザーまたはグループが組織内の適切なコンテンツに適切にアクセスできるようにすることが重要です。 これには、Microsoft Teams の共有チャネルなどのテナント間コラボレーション ソリューションを通じて、組織外のユーザーに付与するアクセス許可が含まれます。

Microsoft 365 Copilot を使用してプロンプトを入力すると、プロンプトに含まれる情報、取得したデータ、生成された応答は、現在のプライバシー、セキュリティ、コンプライアンスのコミットメントに従って、Microsoft 365 サービス境界内に残ります。 Microsoft 365 Copilot は、OpenAI の一般提供サービスではなく、処理に Azure OpenAI サービスを使用します。 Azure OpenAI は顧客コンテンツをキャッシュせず、Copilot で変更された Microsoft 365 Copilot のプロンプトもキャッシュされません。 詳細については、この記事で後述する 「Microsoft 365 Copilot とのユーザー操作に関するデータ」 セクションを参照してください。

注:

  • Microsoft 365 Copilot がより適切な情報を提供できるようにプラグインを使用する場合は、プラグインのプライバシー ステートメントと使用条件を確認し、組織のデータをどのように扱うかを判断してください。 詳細については、「Microsoft 365 Copilot の拡張性」 を参照してください。
  • Web コンテンツ プラグインを使用している場合、Microsoft 365 Copilot はユーザーのプロンプトを解析し、Web グラウンディングによって回答の質が向上する用語を特定します。 これらの用語に基づいて、Copilot は、Bing 検索 サービスに送信される検索クエリを生成します。 詳細については、「Microsoft 365 Copilot と Microsoft Copilot の Web クエリのデータ、プライバシー、およびセキュリティに関するページ」 を参照してください。

コンテンツの人間によるレビューを含む不正使用の監視は Azure OpenAI で利用できます。一方、Microsoft 365 Copilot サービスはオプトアウトしています。 コンテンツ フィルターの詳細については、この記事で後述する 「Copilot が有害なコンテンツをブロックする方法」 セクションを参照してください。

注:

他の Microsoft 365 サービスや Microsoft 365 生産性アプリを改善するためにお客様からのフィードバックを使用するのと同様に、お客様のフィードバック (オプション) を使用して、Microsoft 365 Copilot を改善する場合があります。 このフィードバックは、Microsoft 365 Copilot で使用される基礎 LLM のトレーニングには使用されません。 顧客は、管理コントロールを通じてフィードバックを管理できます。 詳細については、「組織に対する Microsoft フィードバックを管理する」 および 「Microsoft Copilot for Microsoft 365 に関するフィードバックの提供」 に関するページをご覧ください。

Microsoft 365 Copilot とのユーザー操作に関するデータ

ユーザーが (Word、PowerPoint、Excel、OneNote、Loop、Whiteboard などのアプリを使用して) Microsoft 365 Copilot を操作すると、これらの操作に関するデータが格納されます。 格納されたデータには、ユーザーのプロンプトと Copilot の応答が含まれます。これには、Copilot の応答を根拠に使用される情報への引用が含まれます。 ユーザーのプロンプトと、そのプロンプトに対する Copilot の応答を "対話の内容" と呼び、それらの操作の記録はユーザーの Copilot 対話履歴です。 たとえば、この保存されたデータは、Business Chat と、Microsoft Teams での会議 の Copilot 対話履歴をユーザーに提供します。 このデータは、Microsoft 365 の組織の他のコンテンツとの契約上のコミットメントに合わせて処理され、保存されます。 データは保存中に暗号化され、Microsoft 365 Copilot で使用されるものを含め、基礎 LLM のトレーニングには使用されません。

管理者は、この格納されたデータを表示および管理するために、コンテンツ検索または Microsoft Purview を使用できます。 また、管理者は Microsoft Purview を使用して、Copilot とのチャット操作に関連するデータのアイテム保持ポリシーを設定することもできます。 詳細については、次の記事を参照してください。

Microsoft Teams で Copilot とチャットする場合、管理者は Microsoft Teams Export API を使用して格納されたデータを表示することもできます。

Microsoft 365 Copilot とのユーザー操作の履歴の削除

ユーザーは、マイ アカウント ポータルに移動して、プロンプトと Copilot から返される応答などの Copilot の操作履歴を削除できます。 詳細については、「Microsoft 365 Copilot の対話履歴を削除する」 をご覧ください。

Microsoft 365 Copilot と EU データ境界

LLM への Microsoft 365 Copilot 呼び出しは、リージョン内の最も近いデータ センターにルーティングされますが、使用率の高い期間中には、容量が利用可能な他の地域に呼び出すこともできます。

欧州連合 (EU) のユーザーの場合、EU データ境界に準拠するための追加の安全対策があります。 EU トラフィックは EU データ境界内にとどまり、世界中のトラフィックは LLM 処理のために EU およびその他の国または地域に送信できます。

Microsoft 365 Copilot とデータ所在地

Microsoft 365 Copilot は、Microsoft 製品使用条件およびデータ保護補遺に記載されているように、データ所在地コミットメントを維持しています。 Microsoft 365 Copilot は、2024 年 3 月 1 日に Microsoft 製品条項のデータ所在地コミットメントの対象ワークロードとして追加されました。

Microsoft Advanced Data Residency (ADR) および Multi-Geo Capabilities オファリングには、2024 年 3 月 1 日時点の Microsoft 365 Copilot のお客様に対するデータ所在地コミットメントが含まれます。 EU のお客様の場合、Microsoft 365 Copilot は EU データ境界サービスです。 EU 外のお客様は、米国、EU、またはその他のリージョンでクエリが処理されます。

Microsoft 365 Copilot の拡張機能

Microsoft 365 Copilot は既に Microsoft 365 エコシステム内でアプリとデータを使用することができますが、多くの組織は、作業管理とコラボレーションのためにさまざまな外部ツールとサービスに依存しています。 Microsoft 365 Copilot エクスペリエンスでは、 Microsoft Graph コネクタ またはプラグインを使用してユーザー’要求に応答するときに、サードパーティ製のツールとサービスを参照できます。 Graph コネクタからのデータは、ユーザーがその情報にアクセスするアクセス許可を持っている場合、Microsoft 365 Copilot 応答で返すことができます。

プラグインが有効になっている場合、Microsoft 365 Copilot は、ユーザーに関連する応答を提供するために特定のプラグインを使用する必要があるかどうかを判断します。 プラグインが必要な場合、Microsoft 365 Copilot は、ユーザーに代わってプラグインに送信する検索クエリ’生成します。 クエリは、ユーザーのプロンプト、Copilot 操作履歴、およびユーザーが Microsoft 365 でアクセスできるデータに基づいています。

Microsoft 365 管理センター[統合されたアプリ] セクションでは、管理者は、プラグインに必要なアクセス許可とデータ アクセス、およびプラグインの使用条件とプライバシーに関する声明を表示できます。 管理者は、組織で許可するプラグインを完全に制御して選択できます。 ユーザーは、管理者が許可し、ユーザーがインストールまたは割り当てられているプラグインにのみアクセスできます。 Microsoft 365 Copilot では、ユーザーによって有効になっているプラグインのみが使用されます。

詳細については、次の記事を参照してください。

Microsoft 365 Copilot は組織のデータをどのように保護しますか?

Microsoft 365 テナント内のアクセス許可モデルは、ユーザー、グループ、テナント間でデータが意図せず漏洩しないようにするのに役立ちます。 Microsoft 365 Copilot は、他の Microsoft 365 サービスで使用されているデータ アクセスの同じ基礎となるコントロールを使用して、各ユーザーがアクセスできるデータのみを表示します。 セマンティック インデックスは、ユーザー ID ベースのアクセス境界を優先するため、グラウンディング プロセスは現在のユーザーがアクセスを許可されているコンテンツにのみアクセスします。 詳細については、Microsoft のプライバシー ポリシーとサービスのドキュメントを参照してください。

Microsoft Purview 情報保護によって暗号化されたデータがある場合、Microsoft 365 Copilot はユーザーに付与された使用権を尊重します。 この暗号化は、Information Rights Management (IRM) を使用し、秘密度ラベルによって、または Microsoft 365 に含まれるアプリのアクセス許可の制限によって適用されることがあります。 Microsoft 365 Copilot で Microsoft Purview を使用する方法の詳細については、「生成型 AI アプリの Microsoft Purview データ セキュリティとコンプライアンス保護」 を参照してください。

Microsoft は、顧客が Microsoft 365 サービスやアプリケーションを侵害したり、他のテナントや Microsoft 365 システム自体に不正にアクセスしたりすることを防ぐために、既に複数の形式の保護を実装しています。 これらの形式の保護の例を次に示します。

  • Microsoft 365 サービスの各テナント内の顧客コンテンツの論理的な分離は、Microsoft Entra 承認とロールベースのアクセス制御によって実現されます。 詳細については、「Microsoft 365 の分離コントロール」を参照してください。

  • Microsoft は、厳格な物理的セキュリティ、バックグラウンド スクリーニング、多層暗号化戦略を使用して、顧客コンテンツの機密性と整合性を保護しています。

  • Microsoft 365 では、BitLocker、ファイルごとの暗号化、トランスポート層セキュリティ (TLS)、インターネット プロトコル セキュリティ (IPsec) など、保存中および転送中の顧客コンテンツを暗号化するサービス側テクノロジを使用します。 Microsoft 365 での暗号化の詳細については、「Microsoft Cloud での暗号化」を参照してください。

  • お客様のデータに対する管理は、GDPR などの広範に適用されるプライバシー法と、クラウド プライバシーに関する世界初の国際規範である ISO/IEC 27018 などのプライバシー標準に準拠するという Microsoft のコミットメントによって強化されます。

  • Microsoft 365 Copilot プラグインを介してアクセスされるコンテンツの場合、暗号化によってプログラムによるアクセスを除外できるため、プラグインによるコンテンツへのアクセスが制限されます。 詳細については、「Azure Information Protection の使用権限を構成する」を参照してください。

規制遵守要件を満たす

AI 空間の規制が進化するにつれて、Microsoft は将来の規制要件を満たすために適応し、対応し続けます。

Microsoft 365 Copilot は、企業におけるデータ セキュリティとプライバシーに対する Microsoft の現在のコミットメントの上に構築されています。 これらのコミットメントに変更はありません。 Microsoft 365 Copilot は Microsoft 365 に統合されており、Microsoft 365 の法人顧客に対する既存のすべてのプライバシー、セキュリティ、コンプライアンスの義務に準拠しています。 詳細については、「Microsoft コンプライアンス」を参照してください。

Microsoft は、規制への準拠だけでなく、顧客、パートナー、規制当局とのオープンな対話を優先して、懸念事項をより深く理解し、対処することで、信頼と協力の環境を促進します。 Microsoft は、プライバシー、セキュリティ、透明性が単なる機能ではなく、Microsoft の AI 主導の環境における前提条件であることを認識しています。

追加情報

コネクテッド エクスペリエンスのための Microsoft 365 Copilot とプライバシーコントロール

Microsoft 365 Apps のコネクテッド エクスペリエンスに関する一部のプライバシーコントロールは、Microsoft 365 Copilot 機能の可用性に影響を与える可能性があります。 これには、コンテンツを分析するコネクテッド エクスペリエンスのプライバシー コントロールと、オプションの接続エクスペリエンスのプライバシー コントロールが含まれます。 これらのプライバシー コントロールの詳細については、「Microsoft 365 Apps for enterprise のプライバシー コントロールの概要」 を参照してください。

コンテンツを分析するコネクテッド エクスペリエンスのプライバシー制御

組織内の Windows または Mac デバイス上のコンテンツを分析するコネクテッド エクスペリエンスを無効にすると、Microsoft 365 Copilot 機能は次のアプリでユーザーが利用できなくなります。

  • Excel
  • PowerPoint
  • OneNote
  • Word

また、コンテンツを分析する接続エクスペリエンスを含め、すべての接続エクスペリエンスを無効にするプライバシー コントロールもあります。 このプライバシー制御を使用する場合、前述のように、特定のデバイス上の特定のアプリで Microsoft 365 Copilot 機能を使用することはできません。

オプションの接続エクスペリエンスのプライバシー制御

組織でオプションの接続エクスペリエンスをオフにした場合、オプションの接続エクスペリエンスである Microsoft 365 Copilot 機能は、ユーザーが利用できなくなります。 たとえば、 Web グラウンディング をユーザーは利用できません。 オプションの接続エクスペリエンスである Microsoft 365 Copilot 機能の一覧については、「Microsoft 365 Copilot のエクスペリエンス」 を参照してください。

オプションの接続エクスペリエンスを含め、すべての接続エクスペリエンスを無効にするプライバシー コントロールもあります。 このプライバシーコントロールを使用すると、オプションの接続エクスペリエンスである Microsoft 365 Copilot 機能は利用できなくなります。

Microsoft 365 Copilot が作成するコンテンツについて

生成 AI によって生成される応答は、100% 事実であるという保証はありません。 応答の改善を続けていますが、他のユーザーに送信する前に、出力を確認する際には依然としてユーザーによる判断が必要です。 Microsoft 365 Copilot の機能は、これらのタスクを完全に自動化するのではなく、生成された AI をレビューする機会を提供しながら、より多くのことを達成するのに役立つ便利な下書きと概要を提供します。

Microsoft は、責任ある AI の原則に沿って、誤った情報や偽情報、コンテンツのブロック、データの安全性、有害なコンテンツや差別的なコンテンツの宣伝の防止などの問題に積極的に対処するために、アルゴリズムの改善を続けています。

Microsoft は、サービスの出力の所有権を要求しません。 つまり、Microsoft は、顧客の出力が著作権で保護されているか、他のユーザーに対して法的強制力があるかどうかを判断することはありません。 これは、生成 AI システムが、複数の顧客からの同様のプロンプトまたはクエリに対して同様の応答を生成する場合があるためです。 そのため、複数の顧客が、同じまたは実質的に類似したコンテンツの権利を持っているか、または権利を所有または主張する可能性があります。

第三者が、Microsoft の Copilots またはそれが生成する出力の使用による著作権侵害で法人顧客を訴えた場合、顧客が当社製品に組み込まれているガードレールとコンテンツ フィルターを使用している限り、Microsoft は顧客を弁護し、訴訟の結果として生じる不利な判決または和解の金額を支払います。 詳細については、「マイクロソフト、お客様向けの Copilot Copyright Commitment を発表」を参照してください。

Copilot は有害なコンテンツをどのようにブロックしますか?

Azure OpenAI Service には、コア モデルと連携して動作するコンテンツ フィルター システムが含まれています。 憎悪と公平性、性、暴力、自傷行為のカテゴリのコンテンツ フィルター モデルは、さまざまな言語で特別にトレーニングされ、テストされています。 このシステムは、有害なコンテンツの出力を特定してブロックするように設計された分類モデルを通じて、入力プロンプトと応答の両方を実行することによって機能します。

憎悪と公平性に関連した危害とは、人種、民族、国籍、性自認と性表現、性的指向、宗教、在留資格、能力、外見、体の大きさなどの属性に基づいて軽蔑的または差別的な言葉を使用するコンテンツを指します。 公平性は、既存の社会的不平等に寄与することなく、AI システムがすべての人々のグループを公平に扱うことを保証することに関係しています。 性的コンテンツには、人間の生殖器官、恋愛関係、エロティックまたは愛情表現で描かれた行為、妊娠、性暴力、売春、ポルノ、虐待などの暴行または強制行為として描かれたものを含む身体的性行為に関する議論が含まれます。 暴力とは、行為、武器、関連する実体など、危害を加えたり殺害したりすることを目的とした身体的行為に関連する言語を指します。 自傷行為とは、自分自身を傷つけたり殺したりすることを意図した行為を指します。

Azure OpenAI コンテンツ フィルターについて詳しくは、こちらをご覧ください

Copilot は保護された材料検出を提供しますか?

はい。Microsoft 365 Copilot では、著作権の対象となるテキストやライセンス制限の対象となるコードを含む、保護された素材の検出が提供されます。 これらの軽減策の一部が、すべての Microsoft 365 Copilot シナリオに関連しているわけではありません。

Copilot はプロンプト インジェクション (脱獄攻撃) をブロックしますか?

脱獄攻撃は、生成 AI モデルが訓練されたとおりに動作したり、従うように指示されたルールに違反したりするように設計されたユーザー プロンプトです。 Microsoft 365 Copilot は、迅速なインジェクション攻撃から保護するように設計されています。 脱獄攻撃と、Azure AI Content Safety を使用して脱獄攻撃を検出する方法の詳細をご覧ください

責任ある AI への取り組み

AI が私たちの生活を変革しようとしているため、このテクノロジの使用と影響に対する新しいルール、規範、プラクティスをまとめて定義する必要があります。 Microsoft は 2017 年から責任ある AI への取り組みを続けており、このテクノロジが人々を第一に考える倫理原則に基づいた方法で使用されるようにするための原則とアプローチを定義しました。

Microsoft は、AI の原則責任ある AI 標準、および AI、グラウンディング、プライバシー保護の機械学習に関する数十年にわたる研究に従っています。 研究者、エンジニア、ポリシー エキスパートからなる学際的なチームが、潜在的な危害と緩和策について Microsoft の AI システムをレビューします。トレーニングデータを改良し、有害なコンテンツ、クエリ、結果を制限するためのフィルター処理をし、機密トピックをブロックし、データの偏りを検出して修正するのに役立つ InterpretMLFairlearn などの Microsoft のテクノロジを適用しています。 制限事項を明記し、ソースにリンクし、対象分野の専門知識に基づいてコンテンツのレビュー、事実確認、調整をユーザーに促すことで、システムがどのように意思決定を行うかを明確にしています。 詳細については、「AI のガバナンス: 未来に向けた青写真」を参照してください。

Microsoft は、学習を共有し、信頼に基づくパートナーシップを構築しながら、顧客が AI 製品を責任を持って使用できるよう支援することを目指しています。 これらの新しいサービスについて、AI プラットフォーム サービスの使用目的、機能、制限事項に関する情報を提供し、顧客が責任を持って展開を選択するために必要な知識を得ることができるようにしたいと考えています。 また、組織内の開発者や独立系ソフトウェア ベンダー (ISV) とリソースとテンプレートを共有して、効果的で安全で透明性の高い AI ソリューションの構築を支援します。