AI ガバナンスのためのシステムの適用
どのガバナンス アプローチを選択する場合でも、推奨するべき良いプラクティスがいくつかあります。
AI ガバナンスのために行動を起こす方法 | 説明 |
---|---|
リソースを使用できるようにする | 従業員には、責任ある AI の原則を学習し、自分の作業に組み込むためのガイダンスが必要です。 ハンドブック、マニュアル、またはトレーニング セッションによってそのタスクを実行できます。 |
一元化された AI インベントリを作成する | 組織内で稼働しているすべての AI モデルとシステムの一覧を作成することは、取り組みに優先順位を付けてリソースを最適化するための鍵となります。 また、監査とコンプライアンス テストを簡単に行うのにも役立ちます。 |
ツールの開発 | 組織内のすべての AI システムのコンプライアンスを確認するのは骨の折れる作業です。 このタスクを自動化するツールを構築することを検討してください。そのようなツールでは、システムを監視および検証し、何かがパフォーマンス メトリックを外れた場合は警告を発生させます。 |
AI ガバナンス エンゲージメント
お客様の AI ガバナンス システムの具体的なプロセスやポリシーは、会社がサードパーティのシステムを使用しているか、社内 AI を開発しているかによって異なります。 この要因に基づいて、Microsoft は、会社が AI エンゲージメントを管理するために役立つ推奨事項を提供しています。
AI システム開発者とのエンゲージメント
ファースト パーティ AI システムの場合、組織が AI ソリューションの開発や既存の製品やサービスへの AI の統合も計画している場合は、チームのロールごとにいくつかのタスクがあります。
倫理的なガバナンス システムでは、次のことを行う必要があります。
慎重な扱いが必要なユース ケースの場合は特に、新しい AI システムのリリースの前にアドバイスを確認または提供します。
AI や AI が統合された製品やサービスを販売する前に、会社のあらゆる階級の従業員が、倫理的な懸念事項を自由に表明できるようにします。
ケースを分析し、AI システムの設計、開発、または販売中に懸念が発生した場合にリスクを軽減するためのガイダンスを提供します。
時間の経過によるモデルのずれや減衰を検出して軽減するために、デプロイまたは販売する AI システムを監視するためのプロセスを作成します。
開発者は、次のことを行う必要があります。
組織の倫理原則が反映されるように AI ソリューションを設計および開発するのに役立つ、詳細かつ完全な標準ガイダンスが提供されています。
顔認識や生成 AI など、特定の AI テクノロジに関するガイドラインとチェックリストがあります。
すぐに使用できるサード パーティ AI システムの使用を計画している組織の場合は、責任ある AI 設計に対するサード パーティの取り組みについて調べ、それが自社の原則に適合していることを確認することをお勧めします。
カスタム AI ソリューションの場合は、自社の原則または標準を提案依頼書に含めてください。 サードパーティ AI ソリューションをデプロイする前に、システムを安全に運用および監視する方法に関するガイドラインを作成します。 これらのガイドラインに従って従業員をトレーニングし、それらが守られていることを確認します。 最後に、ガバナンス システムでは AI システムが厳格にテストされていることを保証する必要があります。
外部の利害関係者とのエンゲージメント
AI の使用がより一般的になっているため、責任を持って AI に関与することは、公共部門と民間部門にまたがる共同責任であると考えています。 ベスト プラクティスを確保しながら、AI の可能性を最大化して幅広い利点を提供するには、企業、公共団体、政府、および非営利組織の間のコラボレーションが非常に重要です。
組織は、これらの集合的な取り組みにさまざまな方法で貢献できます。 Microsoft では、業界のイニシアチブに参加すること、ポリシーに影響を与えること、将来の労働と職場のニーズに対処すること、および弊社のテクノロジを世界中の人たちの生活を改善するためにどのように使用できるかを検討することに重点を置いてきました。 たとえば、私たちは Partnership on AI (PAI) に参加しています。これは、AI が責任ある方法で開発および活用されるようにすることに尽力している研究者、非営利組織、非政府組織 (NGO)、会社のグループです。
次に、Microsoft を例として使って、実際の会社で AI ガバナンス システムがどのように機能するかを見てみましょう。