日本マイクロソフトは4月24日、AIの開発と活用において重視すべき6つの倫理的用件を発表した。
AIの可能性を最大化するためには大量のデータの収集、集約と共有が不可欠になるが、同時にこれらはユニバーサルアクセスやプライバシー、透明性などに関する倫理上の議論を引き起こしうると警告。最終的にAIが信頼できる存在であるためには、透明性や安全性、多様性に加えて最高水準のプライバシー保護を維持することが必要だ、としている。
これらを実現するため、同社ではAIによるソリューションの開発と展開の中核に以下の6つの基準を設定した。
- プライバシーとセキュリティ:
- 他のクラウドテクノロジーと同様に、AIシステムは、データの収集・使用・保存を規制するプライバシー法に準拠し、個人情報がプライバシーの基準に合致して使用され、悪用や盗難から保護されるよう保証しなければなりません。
- 透明性:
- AIの人々の生活への影響が増すにつれ、どのようにしてAIが判断したかを人々が理解できるようAIシステムの機能に関する背景情報を提供し、潜在的な偏見、エラー、予期せぬ結果を容易に特定できるようにしなければなりません。
- 公平性:
- AIシステムが、例えば、病気の治療や雇用に関する判断を行う時には、同様の症状または技能の者であれば誰に対してでも同じ判断を行うべきです。公平性を保証するためには、バイアスがAIシステムにどのように影響を与えるかを理解しなければなりません。
- 信頼性:
- AIシステムは、明確な条件の下で動作し、予期せぬ状況においても安全に応答し、想定と異なる形で進化していかないように設計されなければなりません。AIシステムをどう展開して、いつ展開するかの意思決定においては、人間が重要な役割を果たさなければなりません。
- 多様性:
- AIソリューションは、不用意に人々を排除することになる製品や環境の潜在的障壁を予期した多様性のある設計規範によって、広範な人間のニーズと体験に対応しなければなりません。
- 説明責任:
- AIシステムを設計し、展開する人々はシステムの動作について説明責任を負います。AIの説明責任の基準は、ヘルスケアにおけるプライバシーなどの他の分野での体験と実務に基づくべきです。そして、システム設計段階だけでなく、世界での運営されている中でも、継続的に順守されなければなりません。
これら6つの基準は同社のAI製品とサービス設計の規範となっており、製品がこれらの基準に準拠するか制度的に確認する社内委員会を設置しているという。
関連記事
- “ほんやくコンニャク”の実現はいつ? 音声認識・翻訳技術は「言語」の壁を取り払うか
未来のひみつ道具を実現する最新テクノロジー。 - ジョブズ時代から「個人情報で商売しない」を掲げてきたAppleのブレなさ
米国でFacebookの不正データ流出問題が騒がれる中、Appleのティム・クックCEOが「自分たちは個人情報を売ったりはしない」と断言。実はジョブズ時代から、Appleは同様のスタンスを貫いています。 - FacebookやGoogleに自分がどんな情報を与えているか確認する簡単な方法
サービスの便利さとプライバシーのバランスを見直すきっかけになるかもしれません。 - 人工知能の悪用を防ぐために OpenAIの論文が示すリスクとは?
シンギュラリティによってAIが人類を支配する世界がやって来るかどうかはさておき、現時点では人間がAIを悪用するリスクの方が怖そうです。 - Windows 10で機械学習ライブラリを実行するための「Windows ML」とは何か
クラウドだけでなく、PCやスマートフォンなどを含むエッジデバイスの世界においても、機械学習ライブラリを使った処理高速化の活用が進みつつある。そんな中、Microsoftが発表した学習済みの機械学習ライブラリをWindows上で動作させるための仕組み「Windows ML(Machine Learning)」の情報を整理する。 - 6億台のPCで使える「Cortana」がAIアシスタント競争に苦戦する理由
CES 2018では「Amazon Alexa」や「Googleアシスタント」が引き続き注目を集めた。その一方で、Windows 10標準のアシスタント機能である「Cortana」は、PC以外の採用例を増やすことに苦戦している。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.