「責任あるAI」チームを再編した米Meta ビッグテックですら手探り、AI倫理に“最適解”はあるのか:事例で学ぶAIガバナンス(3/3 ページ)
米Metaは「レスポンシブルAI」(責任あるAI)チームの再編を発表した。AIの開発や運用、利用が倫理的に行われているか運用していくチームに当たるが、なぜMetaはその再編を行うに至ったのだろうか。
一方、基盤モデル間の開発競争も激化しており、多種多様なモデルが現実的な選択肢として考えられるようになった。「猫も杓子もChatGPT(あるいはGPT-4)」というフェーズはとうに過ぎ、企業がそれぞれのアプリケーションに合った基盤モデルを選択したり、各ユーザーが目的に合った生成AIの実現形態を選んだりする時代が到来している。
例えば、最近発表されたMicrosoftの「Copilot Studio」は、目的特化型の生成AIアプリケーションの実現を可能にするものだろう。また先日Microsoftが発表したモデル「Orca 2」のように、比較的小規模な言語モデルでも主要なLLMに匹敵する性能を出せる研究が進められており、モデルの多様化と細分化がさらに進むと予想される。
その場合、既存のAIガバナンスでは想定していない、新たな状況への対応が求められる。基盤モデルの評価・比較検討はどうあるべきか、選んだモデルの透明性は十分か、モデルの切り替えやバージョンアップに求められるリスクコントロールなど、経営サイドでは少し前まで想像もしていなかった課題が、次々に生まれてくるだろう。
そうした課題をいち早くキャッチし、対応策を検討するためには、開発・導入の現場とリスク管理側のスタッフが近い関係にあることが望ましい。その観点なら、Metaが行った「レスポンシブルAIチームを解体し、生成AI開発チームに統合する」という決断は、決して不当なものとは限らないだろう。生成AI時代にあるべきレスポンシブルAIの在り方を、Metaは模索しているのだと考えられる。
AI倫理にいまだベストプラクティスはあらず
とはいえMicrosoftもMetaも、その戦略的な意図を十分に説明しておらず、外部から見た場合には「生成AI開発というアクセルを踏むために、レスポンシブルAIというブレーキを取り除いたのだ」といわれてしまっても仕方がない。もし自分の勤めている回答が同じことをした場合も、同様の批判を浴びることだろう。
大切なのは、AIを倫理的に使うというテーマにはまだベストプラクティスが存在していないこと、さらには生成AIや基盤モデルという新たなパラダイムが登場したことで、ガバナンスの在り方を再検討する必要があるのをきちんと説明し、その上で状況に柔軟に対応する姿勢だ。
ガバナンスというブレーキは絶対に必要なものだが、まだ発展途上にある生成AI時代において、それをどのような形で設置するのが望ましいのかは、実践を通じて考えるしかない。そしてその過程を継続的に情報発信し、透明度を高め、ステークホルダー全体に向けて説明する姿勢が求められている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
もはや必須? 企業の「AIを使いました」報告 米国では“明示なし”フェイク音声が物議に
企業がAIを利活用する際、どのような原理原則に従うべきか。世の中でいくつかの共通認識が生まれようとしているが、その一つが「AI利用の公表」だ。米国では、市長がAIによるフェイク音声を利用し、それを明示しなかったことが物議を醸した。
Microsoft、日本のAIガバナンスに関するレポート公開 「日本のリーダーシップを多くの国が期待」
日本マイクロソフトは、日本のAIガバナンスに関するレポート「AIのガバナンス: 日本に関する青写真」を発表した。
日本にも“社内GPT”の導入相次ぐ 日本マイクロソフトが語る最新動向
「日本でAzure OpenAI Serviceを活用している企業数は560社以上」──日本マイクロソフトが10月23日に開催した、AIに関するメディア向け説明会にてそのように明かした。
生成AIの自社ルールの作り方 米AP通信の例 「“何をさせないか”を明らかに」
生成AIの普及により、自らのビジネスにおいても、この新しい技術を活用しようとする企業が増えている。それらの企業はどのようなガイドラインやルールを制定するべきか。大手通信社の米AP通信の例を見てみよう。
サム・アルトマン氏、米OpenAIのCEOに返り咲き 公式Xで発表
米OpenAIは11月22日、サム・アルトマン氏が同社のCEOに就任すると発表した。
