世界各国において、政府はAI開発を後押しする施策を進めながら、AIに何らかの規制をかける検討をしている。国や自治体レベルでの政策、規制の動きについては次の記事で取り上げたい。AI関連の法律については、今後ますます盛んに議論されていくだろう。
技術の規制は国や自治体だけが行うものではない。ある技術を開発した企業自身が、さまざまな意図から自主規制を行う場合があるが、AIも例外ではない。
画像や映像の中に写る顔から個人を特定する「顔認識技術」を例に挙げよう。AI活用の例としてよく引き合いに出される顔認識だが、プライバシーの侵害を引き起こす恐れが非常に高いため、その利用に一定の制限をかけようとする動きが生まれている。
例えば米サンフランシスコ市の監理委員会(市議会に相当する組織)は今年5月、市の機関が顔認証技術を導入する場合に、事前の承認を得ることを義務付ける条例を可決した。
また昨年の12月、この技術を開発する側であるGoogleは、顔認識技術のAPIの提供を当面控えると公式ブログで発表した。これは技術的な問題とポリシー上の問題を解決するまでの措置のようだが、Googleの幹部は、顔認識技術が悪用される可能性を指摘している。
Microsoftのブラッド・スミス社長も昨年12月、顔認証技術が引き起こす問題に対処することの重要性を公式ブログで呼び掛けた。
仮に「AI関連法」が一般的な存在になるにしても、国レベルで動くのはしばらく先の話になるだろう。それまではMicrosoftのように迅速に行動できる企業が主体となり、自らの倫理観や危機感に基づいてAIに向き合う必要がありそうだ。
そうした意識を半ば強制的に企業に求める手段として、AI版「製造物責任法」が成立するのではと予想する人もいる。
製造物責任法は、製造物の欠陥によって何らかの害が生じた場合、損害賠償責任を製造業者に負わせる法規のこと。損害賠償責任を追及しやすいため、企業は自社製品の安全性をより高めようと意識するようになり、消費者は「何か問題が起きても賠償が得られる」と安心できるメリットがある。製造物責任が明確に規定されると企業にとって負担が増えるものの、対象となる製品の利用が促されるという側面があるのだ。
今年5月、香港在住の投資家が、アルゴリズムを使った自動投資を行うプラットフォームによって損失が出たとしてこのプラットフォームを販売した業者を訴えたと、Bloombergが報じた。
同じような訴訟は、自動車の自動運転機能がもたらした事故についても起きている。AI利用に関して問題が起きたとき、誰がどこまで責任を負うのかがはっきりしていなければ、AIの開発者も、販売者も、利用者も安心してAIに関わることはできない。
そのため、おそらくは個々のアプリケーションごと(投資ロボットや自動運転者、病気診断AIなど)にその責任の線引きを明らかにしていくことが、社会全体で求められていくだろう。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR