ITmedia NEWS > 企業・業界動向 >
ニュース
» 2020年10月28日 12時00分 公開

「どこからがAI?」「越えてはいけないルールは?」 AI規制の最前線、日欧のキーパーソンが解説 (1/3)

AIは便利な一方、無秩序に利用すると人権侵害などを発生させる恐れもある。AIを使いながらも健全に社会を発展させていくには、一定のルール作りが必要だ。日本と欧州でAIの規制作りを進めるキーパーソンが、規制の考え方などを解説した。

[石井徹,ITmedia]

 2000年代に「第3次AIブーム」が到来してから10年超。コンピュータの性能向上によって、ディープラーニングのような機械学習の新手法が実用的になり、画像処理や自然言語処理など幅広い分野で使われるようになった。近年は人の行動予測や産業機器の制御といった、ビジネスに直接結び付く分野へも応用されてきている。

 一方で、AI技術が無秩序に利用されると、人権侵害や生命の危険に対する潜在的なリスクにもなりうる。例えば、技術の不備による事故や、抑圧的な政府やグローバル企業によるプライバシーの侵害といった危険などだ。

 AIを使いながらも健全に社会を発展させていくには、一定のルール作りが不可避な状況にある。

 10月22日、オンラインイベント「CEATEC 2020」において開催されたカンファレンスで、AIルールの策定に関わる日本とEUの政府・企業担当者が登壇し、AIを巡る現状と規制の方向性について解説した。

“弱いAI”でも規制は必要 日本とEUの現状

 AI技術は言ってしまえば、単なる計算手法にすぎない。現在の“弱いAI”と呼ばれる技術は膨大なデータを集約し、特定のアルゴリズムによって最適な結果を予測するという一連の過程を計算能力によって行うものだ。「人工知能」と聞いてイメージする、例えばドラえもんのような人間に近いロボットは、現在の“弱いAI”が発展を続けたとしても、実現は難しいとされている。

モデレーターを務めたのはJBCEのアントワン・ラルパン氏。JBCEは欧州で活動する日系企業が加盟する業界団体だ

 AIは、人と同等かそれ以上の精度で予測や分類などを高速に行える。効果的に活用すれば社会に有益な効果をもたらす。一方で“弱いAI”であっても、使い方によっては社会へ大きな損害を与える可能性もある。例えば包丁や自動車と同じように、適切に使うためのルールを定める必要がある。欧州連合(EU)や日本政府では、それぞれAI技術に対する規制の枠組み作りを進めている。

 人はAIをどのように活用していけばいいのか。経済産業省 情報政策企画調整官の泉卓也氏は「日本政府が2019年3月にとりまとめた『人間中心のAI社会原則』が指針になる」と話す。

経済産業省 情報政策企画調整官の泉卓也氏

 この文書は、AI技術を活用できる理想的な社会の在り方を示し、それを達成するために政府、開発者、事業者が考慮すべき原則を提示している。

 その基本的な理念は、(1)人間中心の原則、(2)教育・リテラシーの原則、(3)プライバシー確保の原則、(4)セキュリティ確保の原則、(5)公正競争確保の原則、(6)公平性、説明責任及び透明性の原則、(7)イノベーションの原則──という形で示されている。

 7つの原則の筆頭に「人間中心の原則」とあるように、これは憲法の人権主義に基づいている。AI技術が人権を侵害するような事態を考慮しつつも、AI技術の社会における活用を促進するといった内容だ。

人権主義はEUも同様 「規制を守れば法的にもセーフ」

欧州委員会通信総局 AI担当アドバイザーのエリック・バディケ氏

 EUのAI規制の現状も、人権主義に基づく点で日本と共通している。欧州委員会通信総局でAI担当アドバイザーを務めるエリック・バディケ氏は、EUは2月にAIについてのホワイトペーパーを公開したという。

 ホワイトペーパー「White Paper on Artificial Intelligence: A European approach to excellence and trust」(人工知能白書:卓越と信頼に向けたヨーロッパのアプローチ)では、AIが市民や消費者、公共の利益に役立つ形で活用するようAI開発企業に要請し、人間の尊厳やプライバシー保護といった価値観への配慮を求めている。一方で、EUが積極的にAI技術の開発や公共分野での活用に取り組む姿勢も示されている。

 EUはAIに関する規制を作ることで、AI開発に取り組む事業者の法的安定性を保証する(原則を順守する限りでは法的な追求を求められない)という見解を示しているのも重要なポイントだ。

 EUでは19年4月に「Ethics guidelines for trustworthy AI」(信頼できるAIの倫理ガイドライン)も公開し、AI技術者が守るべき技術原則を定めている。その中では人間によるAIシステムの監視や、フォールバックによる可用性の確保、プライバシー保護、透明性、説明可能性と責任の明確さといった内容が盛り込まれている。

       1|2|3 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.