ITmedia NEWS > 社会とIT >
ITmedia AI+ AI活用のいまが分かる

「責任あるAI」チームを再編した米Meta ビッグテックですら手探り、AI倫理に“最適解”はあるのか事例で学ぶAIガバナンス(3/3 ページ)

» 2023年12月05日 08時00分 公開
[小林啓倫ITmedia]
前のページへ 1|2|3       

 一方、基盤モデル間の開発競争も激化しており、多種多様なモデルが現実的な選択肢として考えられるようになった。「猫も杓子もChatGPT(あるいはGPT-4)」というフェーズはとうに過ぎ、企業がそれぞれのアプリケーションに合った基盤モデルを選択したり、各ユーザーが目的に合った生成AIの実現形態を選んだりする時代が到来している。

 例えば、最近発表されたMicrosoftの「Copilot Studio」は、目的特化型の生成AIアプリケーションの実現を可能にするものだろう。また先日Microsoftが発表したモデル「Orca 2」のように、比較的小規模な言語モデルでも主要なLLMに匹敵する性能を出せる研究が進められており、モデルの多様化と細分化がさらに進むと予想される。

11月に開催したイベント「Microsoft Ignite」でのサティア・ナデラCEO

 その場合、既存のAIガバナンスでは想定していない、新たな状況への対応が求められる。基盤モデルの評価・比較検討はどうあるべきか、選んだモデルの透明性は十分か、モデルの切り替えやバージョンアップに求められるリスクコントロールなど、経営サイドでは少し前まで想像もしていなかった課題が、次々に生まれてくるだろう。

 そうした課題をいち早くキャッチし、対応策を検討するためには、開発・導入の現場とリスク管理側のスタッフが近い関係にあることが望ましい。その観点なら、Metaが行った「レスポンシブルAIチームを解体し、生成AI開発チームに統合する」という決断は、決して不当なものとは限らないだろう。生成AI時代にあるべきレスポンシブルAIの在り方を、Metaは模索しているのだと考えられる。

AI倫理にいまだベストプラクティスはあらず

 とはいえMicrosoftもMetaも、その戦略的な意図を十分に説明しておらず、外部から見た場合には「生成AI開発というアクセルを踏むために、レスポンシブルAIというブレーキを取り除いたのだ」といわれてしまっても仕方がない。もし自分の勤めている回答が同じことをした場合も、同様の批判を浴びることだろう。

 大切なのは、AIを倫理的に使うというテーマにはまだベストプラクティスが存在していないこと、さらには生成AIや基盤モデルという新たなパラダイムが登場したことで、ガバナンスの在り方を再検討する必要があるのをきちんと説明し、その上で状況に柔軟に対応する姿勢だ。

 ガバナンスというブレーキは絶対に必要なものだが、まだ発展途上にある生成AI時代において、それをどのような形で設置するのが望ましいのかは、実践を通じて考えるしかない。そしてその過程を継続的に情報発信し、透明度を高め、ステークホルダー全体に向けて説明する姿勢が求められている。

前のページへ 1|2|3       

Copyright © ITmedia, Inc. All Rights Reserved.