三部弁護士は「国内外でAIと倫理を尊重する動きが出ている」と話す。例えば、EU(欧州連合)の「信頼できるAIのための倫理ガイドライン案」、OECD(経済協力開発機構)の「AIに関する専門家会合の原則とりまとめ」、UNESCO(国際連合教育科学文化機関)の「AIと倫理に関する報告書の作成検討」などがこれに当たる。
米国ではGoogleやApple、Facebookなどが所属する非営利団体「Partnership on Artificial Intelligence to Benefit People and Society」や、Teslaのイーロン・マスクCEOなどが立ち上げた非営利のAI研究企業「OpenAI」など、企業主導の動きが目立つ。
日本では政府による「人間中心のAI社会原則」や総務省の「AI開発ガイドライン案」「AI利活用原則案」の他、人工知能学会や理化学研究所などの各団体で取り組みが進む。三部弁護士は「日本でも先進的な企業は原則作りを超えて研究開発の段階へ踏み出す企業が出てきているが、今後その動きは加速するだろう」と話す。
世界的にこうした動きが目立つ中、今後日本企業はどのような取り組みが必要になるのか。「まずは自社が行うAI事業で発生しうるリスクの種類、内容、程度を把握して対策を立てることが重要だ」と三部弁護士は説明する。
自動運転なら安全性、個人の信用力を示すスコアリングなら平等性や透明性など、事業領域によってリスクと取るべき対策はおおよそ共通認識ができつつあるという。
こうした検討を、経営陣のみならず、開発、販売、法務、経営企画、人事など部門を越えてスムーズに進められる社内体制の構築が求められる。
「(AIと倫理は)社会全体で対応すべき問題だが、まずは企業ごとで対応していかざるを得ない。企業によって意識に差があるので、きちんと考えている企業は海外のパートナーと手を組みやすいなどのチャンスが生まれるだろう」(三部弁護士)
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR