生成AIブームの裏にひそむ「AIリスク」 ハーバード大で起業した日本人経営者が語る“AIとの向き合い方”(1/2 ページ)

生成AIをはじめとするAIモデルのリスクや法整備を含む社会の動向、日本企業のAI管理の事例について、「AIリスク」分野の専門家に聞いた。

» 2023年05月11日 08時00分 公開

 2022年11月にOpenAIが公開した大規模言語モデル「ChatGPT」は、ユーザーが入力した質問に対してAI(人工知能)がこれまでになく自然な回答を返すことで大きな話題を呼んだ。2023年3月にはより精度の高い「GPT-4」がリリースされ、自社のサービスや業務にその技術を組み込む企業が続々と現れている。ChatGPT の登場によってAIの進化の速さに大きく注目が集まることになったが、同時にその利用法を間違えたり過度に依存したりすることのリスクについても議論が巻き起こっている。

 非営利団体「フューチャー・オブ・ライフ・インスティテュート」が最先端のAIシステムの開発を一時停止するよう要請する公開書簡を公表し、イーロン・マスク氏やスティーブ・ウォズニアック氏、ユヴァル・ノア・ハラリ氏ら1000人以上の著名なテクノロジーリーダーや研究者が署名したことは記憶に新しい。

Robust Intelligence 大柴行人氏

 この書簡のメッセージは主にAIの開発組織に向けて発信されたものだ。だが、さまざまなシステムにAIが組み込まれる今、開発側に限らずあらゆる立場の組織がそのリスクを正しく理解して管理することが求められていると、「AIリスク」の分野の専門家でRobust Intelligenceの共同創業者である大柴行人氏は話す。

 直近では自民党のAIプロジェクトチームにも参加し、各メディアでその発言が注目されている同氏に、生成AIをはじめとするAIモデルのリスクや法整備を含む社会の動向、日本企業のAI管理の事例について聞いた。

リスク管理がなおざりのまま急速に普及が進むAI

 大柴氏は、現在のAIを巡る状況について次のように見解を述べる。

「1980年代から90年代にかけて、PCの高性能化と普及に合わせて数多くのソフトウェア製品が登場しましたが、当初はバグや脆弱(ぜいじゃく)性だらけでした。その後ソフトウェア市場が成熟するに従い、徐々に品質やセキュリティ対策が重視されるようになったという経緯があります。現在のAIは、さながら80年代、90年代のソフトウェア製品のように、多くのリスクをはらんだまま急速に普及が進んでいる状態です」

 大柴氏がこのことを初めて強く意識したのが、米ハーバード大学でコンピュータサイエンスや統計学を学んでいたころだった。2015年ごろ、ディープラーニング技術が注目を集め、研究成果が生まれていた時期に、大柴氏はこの技術がはらむリスクに着目していたという。

 「『人間を超える精度の認識率を達成!』といった華々しい成果がけん伝されていた頃、私たちは画像認識などのAIモデルにほんの少し変更を加えたり、データを変えたりするだけで、モデルの精度が落ちることを発見して、これを理論的に証明するための研究を始めていました。当時から、今後AIが世に普及すればするほどAIの限界やリスクが大きな課題になると確信していました」

 課題意識に駆られて、同氏は大学卒業後に当時の指導教員であったYaron Singer氏とともにRobust Intelligenceをシリコンバレーで起業し、AIリスクの管理に特化した製品の開発に取り掛かった。当時、世間一般ではAIのリスクに対する議論が活発だったわけではないが、ビッグテックをはじめとする大手IT企業の間では緊急性の高い問題として認識されていた。米国を代表するベンチャーキャピタルであるセコイア・キャピタルからの資金調達を実現した際も、幹部から大きな共感を得たという。

 「事業計画をプレゼンした際はまだ製品が完成していない状況でしたが、『すぐに事業をはじめてほしい』という強い要望を受けました。既に一部の人の中ではAIのリスクに関する危機感があったということです」

 大柴氏が予想した通り、その後AIがさまざまな場面で活用されるようになるとともに、そのリスクにも徐々に光が当たるようになった。

生成AIを含むAIモデルの「3つのリスク」とビジネスへの影響

 AI技術は、どのようなリスクをはらんでいるのか。大柴氏は「機能、品質面のリスク」「倫理的なリスク」「セキュリティ面のリスク」の3つを挙げる。

機能、品質面のリスク

 機能、品質面のリスクとは、AIモデルを開発、運用する過程で生じるリスクのこと。開発環境やテスト環境では高い精度を示していた画像認識AIモデルが、実際に現場に導入してみると開発時には想定できなかった映像に出くわして精度が大幅に低下したり、天候や季節が変わるだけで使い物にならなくなったりするケースがその一例だ。

 注目を集めるGPT-4も、質問の文面にほんの少し誤植が混じっていただけで誤った回答を返したり、ユーザーからの虚偽の発言にだまされたりすることがある。そうしたケースを念頭に置き、定期的にAIモデルの精度を見直し、最新のデータを使って再学習させる運用が求められる。

 それだけでなく、こうしたリスクの管理をおろそかにしたことで、企業の収益や信頼を大きく損ねる事態にまで発展する恐れもある。

 「アメリカでは、不動産の価格算定を行うAIがコロナ禍前後の需給の変化に対応できず、大損害を出して株価が25%低下してしまった、といった企業の事例もあります。もはやAIリスクは、企業価値にも直結する問題になっていると言えます」 (大柴氏)

倫理的なリスク

 現在、金融機関における融資の審査や、空港や駅における監視カメラを使った顔認識、企業の人事部門における人材採用の審査などの分野でAIの導入が進んでいる。業務の生産性向上や属人性の排除といった効果が期待できる半面、「人を評価・判断する」領域であるが故に、倫理的に偏った判断を増幅させてしまうリスクが存在する。

 個人向け金融サービスの与信審査をAIで自動化させようとした際、意図せず男性顧客の与信履歴データをAIに多く学習させたために「女性より男性に高い与信を与えるモデル」ができるケースがある。実際に2019年には、Apple CardでAIの利用が性差別を助長しているのではないかという疑いが提起され、大きな問題となった。

 監視カメラの顔認識AIモデルを開発する際に白人の顔データを多く学習させた結果、他の人種の認識率が相対的に低くなる問題も起きていている。これを受けて、公共機関における顔認識システムの導入を中止するケースも相次いだ。

 差別を意図していなくとも、学習データに偏りが生じて、AIモデルが倫理的に問題をはらむ予測を弾き出すことは十分に考えられる。AIに学習させるデータを収集・選別する際にどんなバイアスが掛かっているかを客観的に評価し、組織全体のコンプライアンスポリシーと照らし合わせながらデータの学習方法を修正する必要がある。

セキュリティ面のリスク

 一般的なITシステムと同様、AIにもセキュリティリスクが存在する。自社で利用するAIの開発・運用環境に脆弱性が存在すると、それをサイバー犯罪者に悪用されてAIが不適切な結果を返す恐れがある。近年は、AI開発時にオープンソースのモデルを利用するケースが多くなったことから、脆弱性が混入するリスクが高まっていると大柴氏は警鐘を鳴らす。

 「オープンソースの活用は、高精度のモデルを転用して効率的にモデルを開発できるメリットがある半面、セキュリティ的に問題のあるモデルを流用することで自社のAIに思わぬ脆弱性を呼び込むリスクもあります。私たちはこのリスクを『AIサプライチェーンリスク』と呼んでいますが、特にオープンソースを利用する際には細心の注意が必要です」

 また、特に最近流行している生成AIの利用においては、これまで以上にセキュリティ面のリスクが高まっているという。

 「プロンプト・インジェクションと呼ばれる手法により、AIチャットbotが本来の出力の規制を解除され、問題のある出力をしてしまう危険性があります。AIに自社の機密情報を学習させていた場合、悪意のあるユーザーがAIを誘導してその情報を盗み出そうとするケースも考えられます」

 「GPT-4」リリース時には、開発元であるOpenAIが『GPT-4 Technical Report』の中で、言語モデルが孕むリスクが指摘した。その中には「偏見を増幅するリスク」「プライバシーを侵害するリスク」「虚偽の情報を発信するリスク」「サイバー攻撃に利用されるリスク」など上記の3つのリスクと関連するものも挙げられている。

 こうした状況の中、世界各国でAIに関する規制を設ける動きも加速している。欧州委員会が2021年4月に「Respoisible AI」(責任あるAI)の実現を目指す倫理ガイドラインを発表した他、米国もFRB(連邦準備制度)などの各省庁が法整備を進めている。日本でも金融庁や経済産業省がAIに関する倫理ガイドラインを発表し、これに呼応するかたちで大手IT企業が次々にAI提供における社会的責任の取り組みを公表している。

       1|2 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ