ニュース
Microsoft、「責任あるAI」の開発ガイドラインを発表 AI特有のリスクをコントロールする「6つ」の必須要件
Microsoftは、社会から信頼されるAIの提供に向け、AIの設計、開発、導入の基本指針となる「Responsible AI Standard」を公開した。AIが生活に浸透する一方で法律の整備が遅れ、AI特有のリスクや社会のニーズに追い付いていない今、Microsoftが同ガイドラインで示す6つの必須要件とは。
Microsoftは2022年7月4日、社会から信頼される「責任あるAI」(Responsible AI)システムの開発基準となるフレームワーク「Responsible AI Standard」を公表した。
同フレームワークは、同社の責任あるAI(人工知能)に関する製品/サービスの開発要件を定義したものだ。Microsoftはこれを一般公開することで同社の知見を共有するとともに、AIに関するより良い規範とプラクティス(実践手法)を構築するための議論に貢献するとしている。
「責任あるAI」に求められる要素は
Microsoftは、AIシステムはその開発や展開に関わる人々の意思決定の産物だと認識し、より有益で公平な結果を導くためには、意思決定のためのガイドが必要だとしている。
Responsible AI Standardが規定する「責任あるAIシステム」を開発するための必須要件は次の6つだ。
関連記事
- AIには「信頼」が必要――Microsoft、AIの開発・活用で重視すべき「6つの倫理的要件」を発表
Microsoftが、AIの開発と活用で重視すべき「6つの倫理的要件」を発表。急速に開発が進むAIは、一方で信頼と倫理に関する複雑な問題を提起すると指摘。その疑念を払拭し、人間がAIの恩恵を最大限に享受するには「6つの倫理的要件」が重要だとしている。 - トヨタコネクティッドとマイクロソフト、AIとコネクティッドカーを組み合わせたプロジェクト推進
トヨタコネクティッドと日本マイクロソフトはAIやIoT、コネクティッドカーを組み合わせたプロジェクトを進めている。社会課題を解決するプラットフォームの提供を目指す。 - 富士通、AIに潜むセキュリティリスクを分析するツールを無償公開 “安全なAI”開発を可能に
富士通は、AIに潜むセキュリティリスクを分析する「AIリスク問診ツール」の無償公開を発表した。AIに誤判断させて情報窃取したり、機械を誤動作させたりするAIの特性を悪用したサイバー攻撃を防ぐことができる。 - AzureでOpenAIの言語処理モデルを利用可能に、アプリ開発を助けるAI機能群 Microsoft Build
Microsoftが年次イベント「Build」でGPT-3を生かした自然言語処理やGitHubの膨大なコード資産を生かした開発効率化、プロトタイピング支援機能など、自社製品やサービスにAI技術開発の成果を組み込む機能強化、新サービスをを発表した。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.