Microsoft、「責任あるAI」の開発ガイドラインを発表 AI特有のリスクをコントロールする「6つ」の必須要件

Microsoftは、社会から信頼されるAIの提供に向け、AIの設計、開発、導入の基本指針となる「Responsible AI Standard」を公開した。AIが生活に浸透する一方で法律の整備が遅れ、AI特有のリスクや社会のニーズに追い付いていない今、Microsoftが同ガイドラインで示す6つの必須要件とは。

» 2022年07月07日 07時00分 公開
[金澤雅子ITmedia]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 Microsoftは2022年7月4日、社会から信頼される「責任あるAI」(Responsible AI)システムの開発基準となるフレームワーク「Responsible AI Standard」を公表した。

 同フレームワークは、同社の責任あるAI(人工知能)に関する製品/サービスの開発要件を定義したものだ。Microsoftはこれを一般公開することで同社の知見を共有するとともに、AIに関するより良い規範とプラクティス(実践手法)を構築するための議論に貢献するとしている。

「責任あるAI」に求められる要素は

 Microsoftは、AIシステムはその開発や展開に関わる人々の意思決定の産物だと認識し、より有益で公平な結果を導くためには、意思決定のためのガイドが必要だとしている。

 Responsible AI Standardが規定する「責任あるAIシステム」を開発するための必須要件は次の6つだ。

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ