Cosmos DB の Microsoft Copilot for Azure (プレビュー) についてよく寄せられる質問。

この記事では、Cosmos DB の Microsoft Copilot for Azure に関してよく寄せられる一般的な透明性についての質問に関する情報を提供します。

全般

Copilot は何ができますか?

Copilot は、独自のデータに対して NoSQL クエリを簡単かつ確実に記述し、AI を利用した自然言語によるクエリ生成によって生産性を向上させるのに役立つ場合があります。

Copilot のトレーニングに使用されたデータは何ですか?

Copilot は、Azure OpenAI の大規模言語モデル (LLM) を利用しています。このモデルは、事前トレーニングされ、Azure Cosmos DB NoSQL クエリと自然言語の説明を生成するように構成されています。

ユーザーが Copilot を最大限に活用するにはどのようにしますか?

ユーザーは、次の手順に従うことで、経験を最大限に活用できます。

  • AI が特定の Azure Cosmos DB コンテナーに対するクエリを生成するように求めるプロンプトを入力します。 ユーザーは、[Copilot] ボックスに自然言語プロンプトを入力し、[クエリの生成] 矢印ボタンを選択できます。 その後、Copilot はプロンプトに該当する Azure Cosmos DB for NoSQL クエリを生成し、説明と共にクエリ エディターに表示します。
  • プロンプトをより具体的に変更し、クエリを再生成する: ユーザーが Copilot によって生成されたクエリに満足していない場合は、[再生成] ボタンを選択して、絞り込まれたプロンプトに基づいて AI に別のクエリを生成させることができます。
  • フィードバックを送信する: ユーザーは、クエリ プロンプトに含まれるフィードバック メカニズムを使用して、Copilot チームにフィードバックを提供できます。 このフィードバックは、Copilot 応答のパフォーマンス品質の向上のために使用されます。

透明性

Copilot が収集するのはどのようなデータで、それはどのように使用されますか?

Copilot は、Azure Cosmos DB コンテナー内の項目のスキーマに依存して動作します。 サービスを提供するためにデータが収集され、その一部は分析、エラーの軽減、製品の改善のために保持されます。 プレビューの使用条件に従って、データはテナントの地理的リージョン、コンプライアンス境界、または国内クラウド インスタンスの外部で格納されて処理される場合があります。

収集されるデータには、次のものが含まれます。

  • サービス データ: Azure Cosmos DB で Copilot を使用するときに、Copilot サービスとの対話時に生成されたイベントに関する使用状況情報が収集されます。 このデータには、タイムスタンプ、データベース ID、コレクション ID、HTTP 応答コード、HTTP 要求待機時間などの情報が含まれます。このデータは、サービスの改善とエラーの軽減に使用される場合があります。
  • ログ記録: Azure Cosmos DB サービスでエラーが発生した場合、エラーと、そのエラーの発生時にサービスによって使用されたその他のデータがログに記録されます。 これらのログには、Copilot に入力したプロンプト、生成されたクエリ、Copilot サービスに送信されたデータ スキーマに関する情報などの情報が含まれる場合があります。 このデータは、サービスの改善とエラーの軽減に使用される場合があります。
  • フィードバック: ユーザーには、特定のクエリに関するフィードバックを提供するオプションがあります。 このフィードバック データには、ユーザーによって Copilot に送信されたプロンプト、生成されたクエリと説明、およびユーザーが Microsoft に提供するフィードバックも含まれます。 このデータは、製品の改善に使用される場合があります。

送信されるプロンプトとクエリ データはどのように保護されますか?

Copilot は、次のようなデータを保護するためにいくつかの対策を講じます。

  • 送信されるデータは、転送中と保存時の両方で暗号化される; Copilot 関連のデータは、転送中は TLS を使用して、保存時には Microsoft Azure のデータ暗号化 (FIPS Publication 140-2 標準) を使用して暗号化されます。
  • ログとフィードバック データへのアクセスは厳密に制御されます。 データは別個のサブスクリプションに格納されます。 データには、1) セキュリティで保護された管理ワークステーションを使用して、Azure 運用担当者からの Just-In-Time JIT 承認によってのみアクセスできます。

プライベート プロンプト、クエリ、またはデータは他のユーザーと共有されますか?

不正解です。 プロンプト、クエリ、その他のデータは他のユーザーとの共有は行われません。

プライバシーとデータ保護の詳細については、どこで確認できますか?

Copilot が個人データを処理して使用する方法の詳細については、「Microsoft のプライバシーに関する声明」を参照してください。

使用条件と制限事項

Copilot などの Azure OpenAI を利用したプレビュー機能を使用するためのプレビューの使用条件はどこで確認できますか?

詳細については、「プレビューの使用条件」を参照してください。

Copilot の意図された使用は何ですか?

Azure Cosmos DB データ エクスプローラー内で、自身の自然言語の質問とプロンプトから Azure Cosmos DB for NoSQL クエリを生成できます。 生成されたそれぞれの出力には、クエリ操作の (英語の) 自然言語の説明も含まれています。 パブリック プレビュー段階では、パフォーマンスと精度が制限される可能性があります。 Copilot によって生成されたすべてのクエリは、使用する前に人間が確認して検証する必要があります。

Copilot の評価方法は何ですか? パフォーマンスの測定にはどのようなメトリックが使用されますか?

Copilot は、次のようないくつかのメトリックに対するテスト データとプロンプトで評価されます。

  • 有効性: 生成されるクエリは、選択されたコンテナーで実行できる有効な Azure Cosmos DB for NoSQL クエリです。
  • 正確性: 生成されるクエリは、ユーザーのプロンプトへの応答として想定されるクエリです。
  • 精度: 生成されるクエリは、ユーザーのプロンプトに関連しており、想定される結果を返します。

Copilot にはどのような制限がありますか?

Copilot は、自然言語の入力に基づく提案を提供することで、ユーザーが Azure Cosmos DB の NoSQL クエリを記述するのを支援する機能です。 ただし、いくつかの制限があります。これについては、ユーザーが認識し、最小限に抑える様努める必要があります。 制限事項の一部を次に示します。

  • レート制限: Copilot では、ユーザーが実行できるクエリの数が制限されます。 ユーザーが 1 分あたり 5 回の呼び出し、または 1 日の合計使用量が 8 時間を超えると、エラー メッセージが表示される可能性があります。 その場合、ユーザーは Copilot を再度使用するのに、次回の時間枠まで待たなければなりません。
  • 精度の制限: Copilot はパブリック プレビュー段階であり、パフォーマンスと精度に制限がある可能性があります。 Copilot によって生成されたすべてのクエリは、使用する前に人間が確認して検証する必要があります。
  • 生成されるクエリは正確でない可能性があり、ユーザーが受け取ると意図していた結果を提供しない可能性があります。 Copilot は完璧なシステムではなく、不適切、不完全、または無関係なクエリを生成することがあります。 これらの誤ったクエリは、次のことが原因で発生する可能性があります。
    • 自然言語プロンプトのあいまいさ
    • 基になる自然言語処理の限界
    • 基になるクエリ生成モデルの限界
    • その他の問題。
  • ユーザーは、Copilot によって生成されるクエリを必ず確認し、想定と要件に一致することを確かめる必要があります。 また、クエリでエラーや問題が発生する場合、ユーザーは Copilot チームにフィードバックを提供する必要があります。 ユーザーは、Copilot インターフェイスのフィードバック メカニズムを通じて直接フィードバックを送信できます。
  • サポートは英語のみ: Copilot では、入力および出力言語として英語が正式にサポートされています。 他の言語で Copilot を使用するユーザーについては、結果の品質と精度が低くなる可能性があります。

Copilot は完璧なクエリや最適なクエリを記述しますか?

Copilot は、使用可能なデータに基づいて、正確で有益な応答を提供することを目的としています。 Copilot によって生成される回答は、言語データのパターンと確率に基づいています。これは、常に正確であるとは限らないということです。 Copilot によって生成されるすべてのコンテンツについて、人間が慎重に確認し、テストし、検証する必要があります。

結果に含まれる予期しない不快なコンテンツを共有したり、有害である可能性のある記事を表示したりするリスクを軽減するために、Copilot ではいくつかの対策を取っています。 そうした対策によっても、予期しない結果が生じる可能性はなおあります。 当社は、責任ある AI の原則に沿って、積極的に問題に対処するために、常にテクノロジの改善に取り組んでいます

予期しない出力や不快な出力が表示された場合はどうすればよいですか?

Copilot では、Azure OpenAI でカスタマイズされたコンテンツ フィルターを使用して、プロンプト内の不快な言語をブロックし、慎重に扱うべきコンテキストでの提案の合成を回避します。 これは、ユーザーが Azure Cosmos DB の NoSQL クエリを記述し、責任ある AI に関する原則を維持するのに役立つ機能です。