責任ある AI
Microsoft は、人を第一に考える倫理原則に基づいて、AI の発展に取り組んでいます。 Microsoft は、この取り組みにおいてお客様と協力したいと考えています。
責任ある AI の原則
AI ソリューションを実装する際、ソリューションで次の AI の原則を考慮することをお勧めします。
- 公平性: AI システムでは、すべてのユーザーを公平に扱う必要があります。
- 信頼性と安全性: AI システムを確実かつ安全に実行する必要があります。
- プライバシーとセキュリティ: AI システムは安全で、プライバシーを尊重する必要があります。
- 包括性: AI システムはすべての人を支援し、ユーザーを関与させる必要があります。
- 透明性: AI システムは理解可能である必要があります。
- アカウンタビリティ: すべてのユーザーが AI システムについて責任を持ちます。
責任ある AI 戦略を確立する
組織の価値観に基づき、独自の責任ある AI 戦略と原則を策定する方法について説明します。
責任を持って AI を開発するためのガイドライン
ソフトウェア開発ライフサイクルを通して潜在的な問題を予測して対処できるように設計されたこれらのガイドラインを使用して、責任ある AI を実践します。
- 人間と AI の相互作用のガイドライン
- 会話型 AI のガイドライン
- 包括的設計のガイドライン
- AI の公平性のチェックリスト
-
Datasheets for Datasets
テンプレート - AI セキュリティ エンジニアリングのガイダンス
責任ある AI のツール
開発者やデータ サイエンティストが AI システムを理解、保護、および制御するのに役立つツールが用意されています。 これらのツールは、Azure Machine Learning、オープンソース プロジェクト、調査など、さまざまなソースから入手できます。
- 理解: AI システムは、さまざまな理由で予期しない動作が発生する可能性があります。 ソフトウェア ツールは、AI システムの動作を理解し、ニーズに合わせて調整するのに役立ちます。 この種のツールの例として、InterpretML、Error Analysis、Fairlearn などがあります。
- 保護: AI システムはデータに依存しています。 ソフトウェア ツールは、プライバシーを守り、機密性を保証することで、データを保護するのに役立ちます。 この種のツールの例として、機械学習用コンフィデンシャル コンピューティング、SmartNoise の差分プライバシー ツールキット、SEAL の準同型暗号ツールキット、Presidio のデータ非識別化ツールキットなどがあります。
- 制御: 責任ある AI は、開発サイクルを通じてガバナンスと制御が必要です。 Azure Machine Learning を使用すると、追跡、系統、および制御を向上させるために監査証跡を有効にして、規制要件を満たすことができます。 例には、監査証跡や追跡可能性などがあります。
次の手順
責任あるソリューション開発の詳細については、次にアクセスしてください。