責任ある、そして信頼できる AI 原則の導入

Microsoft における責任ある AI の 6 つの主要原則には、公平性、信頼性と安全性、プライバシーとセキュリティ、包括性、透明性、アカウンタビリティが含まれます。 これらの原則を使用して、AI 導入の取り組み全体でメインストリームの製品とサービスに AI を統合する際に、責任ある信頼できる AI を作成します。

責任ある AI の原則

Microsoft は、責任ある AI プラクティスの強化に取り組んでいます。

6 つの主要原則で、責任ある AI を定義します。

  • 公平性: AI システムはすべての人を平等に扱い、すべての個人に同じ推奨事項を提供する必要があります。 AI システムの公平性で、個人の特徴に基づく差別を防ぎます。

  • 信頼性と安全性: AI システムは、信頼を構築するために、さまざまな条件下で確実かつ安全に、そして一貫して動作する必要があります。

  • プライバシーとセキュリティ: AI システムは、個人情報と機密情報を保護して、プライバシーを尊重し、セキュリティを維持する必要があります。 また、システムを破壊したり侵害したりする攻撃や試みにも抵抗する必要があります。

  • 包括性: AI システムはすべての人を支援し、関心を引き付ける必要があります。 インクルーシブ デザインの実践は、AI システム開発者が製品やサービスの潜在的な排除障壁を理解し、対処するのに役立ちます。 包括性はイノベーションを促進し、すべての人に利益をもたらすエクスペリエンスの設計に役立ちます。

  • 透明性: AI システムは透明性があり、理解しやすいものでなければなりません。 AI システムは人々の生活に深く影響を与える決定を伝える可能性があるため、システムがこうした決定をどのように下すかについて個人が理解することが重要です。

  • アカウンタビリティ: AI システムとその開発者は、説明責任と責めを負う必要があります。

戦略と計画から実装まで、AI 導入の取り組み全体に責任ある AI 原則を組み込みます。 AI イニシアチブを確保、管理、統制する際には、必ずこれらの原則を適用してください。

責任ある AI が、Azure 向けのクラウド導入フレームワークにおけるさまざまな手法にわたるすべての AI 作業の基礎となる様子を示す図。

この AI 導入ガイダンスには、Azure 向けのクラウド導入フレームワークを使用して責任ある AI プラクティスを実装する方法の例が含まれています。 責任ある AI 原則は、この AI 導入の取り組み全体のガイダンスと推奨事項に統合されています。

責任ある AI の重要性

責任ある AI は、次のリスクを軽減するのに役立ちます。

  • 意図しない結果: 倫理的な影響を及ぼす予期しない影響のリスクを軽減するために、責任ある AI の実装を計画および監視します。

  • 進化する脅威: AI テクノロジが進化すると、新たな脅威が必ず出現します。 これらの脅威を軽減し、先手を打つためには、責任ある AI 原則を遵守する必要があります。

  • バイアス: AI のバイアスの軽減は困難な場合がありますが、AI システムが公平かつ偏りのないものであることを保証するためには必要です。 責任ある AI 原則を指針として活用してください。

  • 機密性の高いテクノロジ: 顔認識のようなテクノロジは、基本的な自由と人権に対するリスクがあるため、機密性の高いテクノロジとみなされる可能性があります。 これらのテクノロジの影響を考慮し、責任を持って使用するようにします。

Azure ファシリテーション

Microsoft Azure には、責任ある AI システムの構築に役立つさまざまなツール、サービス、リソースが用意されています。

Microsoft Azure AI Content Safety を使用して安全なシステムを構築する

Microsoft Azure AI Content Safety を使用して、アプリケーションとサービス内の有害なユーザー生成コンテンツと AI 生成コンテンツを検出します。 Content Safety は、テキストや画像など、AI アプリケーションで生成されたコンテンツを分析して、ユーザーにとって安全で適切なものであることを確認するのに役立ちます。 Content Safety は、次の機能を備えています。

  • プロンプト シールドはテキストとドキュメントをスキャンして、大規模言語モデル (LLM) におけるユーザーによる入力攻撃 (ジェイルブレイク) のリスクを検出します。

  • 根拠性検出は、LLM のテキスト応答が、ユーザーが提供するソース マテリアルに基づいているかどうかを検出します。

  • 保護されたマテリアルの検出は、LLM のテキスト応答に保護されたマテリアル (著作権で保護されたテキスト、曲の歌詞、記事、Web コンテンツなど) が含まれているかどうかを検出します。

  • カスタム カテゴリ (高速) API は新たな有害コンテンツのパターンを定義し、テキストと画像をスキャンして一致を確認します。

  • Analyze Text API は潜在的に有害なテキスト コンテンツを分析します。 通常、ヘイト、自傷行為、および性的または暴力的なコンテンツなどのカテゴリを識別します。

  • Analyze Image API は、潜在的に有害な画像コンテンツを分析します。 通常、ヘイト、自傷行為、および性的または暴力的なコンテンツなどのカテゴリを識別します。

Azure AI サービスで AI を責任を持って使用する

Microsoft では、AI 関連の Azure サービスに関する透過性のためのメモの一覧を提供しています。 この一覧には、Azure AI サービス スイート内のサービスが含まれています。 詳細については、「Azure AI サービスでの AI の責任ある使用」を参照してください。

Azure Machine Learning で責任ある AI ダッシュボードを使用する

Azure Machine Learning を使用してシステムを構築する場合は、責任ある AI ダッシュボードを使用して AI システムを評価できます。 責任ある AI ダッシュボードには、責任ある AI 原則の実装に役立つ 1 つのインターフェイスが用意されています。 責任ある AI の機能には、次のようなものがあります。

  • データ分析: データセットの分布と統計を把握し、調査します。

  • モデルの概要と公平性の評価: モデルのパフォーマンスとモデルのグループ公平性の問題を評価します。

  • エラー分析: データセット内のエラーの分布状況を表示し、把握します。

  • モデルの解釈可能性: モデルの予測と、モデルが個別の予測と全体的な予測をどのように行っているかを理解します。

  • 反事実的 what-if 分析: 機能の変更がモデルの予測にどのように影響するかを確認します。

  • 因果分析: 履歴データを使用して、実際の結果に処理特徴が及ぼす因果効果を確認できます。

責任を持って AI を開発する

リソース 説明
効果的なヒューマン AI エクスペリエンス (HAX) を構築するためのハンズオン ツール 設計プロセスの早い段階で HAX ツールキットを使用すれば、AI システムの機能と動作を概念化できます。 ユーザー向けの AI 製品には HAX ツールキットを使用します。
会話型 AI のガイドライン 他者の信頼を得られるような方法でボットを設計し、人々や社会が潜在能力を最大限に発揮できるようします。 これらのガイドラインを使用して、会社と会社が提供するサービスへの信頼を構築するボットを作成します。
包括的 AI 設計のガイドライン これらのガイドラインを使用すれば、包括的で、すべてのユーザーがアクセスできる AI を設計できます。
AI の公平性のチェックリスト AI 公平性チェックリストを使用して、AI システムが公平で偏りのないものかどうかを判断します。
Machine Learning の責任ある AI Machine Learning を使用して AI システムを構築する場合は、これらの責任ある AI リソースを確認します。

次のステップ