個々のAI技術やアプリケーションについて、その問題点や脆弱性をあぶり出して改善を行う取り組みも進んでいる。最近は、周囲の状況を映像分析によって把握するタイプの自動運転車について、意外な脆弱性があることが明らかになっている。そうしたリスクの研究の例として、次の映像を紹介したい。
今年4月、中国の大手IT企業テンセントのセキュリティ研究部門であるキーン・セキュリティ・ラボが、米Teslaの電気自動車「モデルS」の自動運転機能に新たな脆弱性が発見されたと発表した。映像では、ハッキングの実験を行っている。
研究者らはこの映像の最初の実験で、簡単な映像をモデルSのカメラに「見せる」ことで雨が降って来たと誤認させ、見事にワイパーを作動させた。2番目の実験では、道路上に小さなステッカーを貼り、モデルSを別の車線に移動させている。
これはAIが分析するデータに意図的な「ノイズ」を紛れ込ませ、AIに意図せぬ判断をさせる攻撃手法で、「敵対的攻撃」と呼ばれている。
もちろんキーン・セキュリティ・ラボの目的はハッキングをしてTeslaを脅すことではなく、今回の研究結果も事前にTesla側に知らせていた。AIに対する敵対的攻撃は、自動運転だけでなく画像診断など医療の分野でもその脅威が認識され、多くの研究者がその対策に取り組んでいる。
また「そもそもAIが問題を起こすリスクが小さくなるような開発手法を確立すべきだ」という意見もある。
例えばIBM Accessibility Researchの研究者であるシャリー・トレウィン氏は、AIが障害者に対して差別(=と人に思われる判断を)しないようにする方法を研究している。彼女はMIT Technology Reviewのインタビューで、平均的な人々のデータに合わせてAIを最適化するのではなく、障害者のような「外れ値」(統計において他の値と大きく異なる数値)も含むデータでAIをトレーニングしたり、障害を持つ人々に開発の段階から参加してもらったりするべきだと話している。
セキュリティの分野では、対処療法的にインシデントに対応するのではなく、システム全体の企画・設計段階からセキュリティの思想を組み込む「セキュリティ・バイ・デザイン」という概念が提唱されている。AIの領域でも、同じ考え方でAI災害に対処するのが一般的になるだろう。
経営コンサルタント。1973年東京都生まれ、獨協大学外国語学部卒、筑波大学大学院地域研究研究科修士課程修了。システムエンジニアとしてキャリアを積んだ後、米Babson CollegeにてMBAを取得。その後外資系コンサルティングファーム、国内ベンチャー企業などで活動。著書に『FinTechが変える! 金融×テクノロジーが生み出す新たなビジネス』(朝日新聞出版)、『IoTビジネスモデル革命』(朝日新聞出版)、訳書に『テトリス・エフェクト 世界を惑わせたゲーム』(ダン・アッカーマン著、白揚社)、『シンギュラリティ大学が教える 飛躍する方法』(サリム・イスマイル著、日経BP社)など多数。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR