CxO Insights

Metaはなぜ、AIを無料公開するのか? ザッカーバーグ氏がインタビューで回答

» 2024年05月27日 08時30分 公開
[湯川鶴章、エクサウィザーズ AI新聞編集長]
ExaWizards

 3週間前のMark Zukerberg氏のインタビューなのですが、その後米国・シリコンバレーの複数のポッドキャストで話題になっていたので、詳しくメモを取ることにしました。

 Llama3が大きな話題になったことで、Zukerberg氏の言動は、Sam Altman氏の言動と同じくらい注目を集めるようになってきたようです。

 インタビュー動画の面白かった最大のポイントは、オープンソースでソフトウエアを公開する理由です。過去にもZukerberg氏がその理由に言及したことはありますが、あらためて詳しく説明しています。

 理由は2つです。

 1つは、そのほうが結局コスト削減につながるから。基幹ソフトをオープンソースで無料公開すれば、そのソフトが事実上の業界標準となります。結果、サードパーティが関連する周辺ハードやソフトを開発するようになって、結局10%ほどのコスト削減につながったという過去の経験があったようです。

 2つ目は、すでに広告収入があるので基盤モデルを収入源にする必要がないこと。FacebookやInstagramなど、広告をビジネスモデルとする事業をすでに持っているため、AIの基盤モデルで収益を確保する必要性がないということです。基盤モデルの使用料で生計を立てなければならないOpenAIとその点が大きく異なります。

 OpenAIはまもなくリリースされると噂されている次期モデルGPT-5で、Llama3をどれだけ引き離せることができるか。大きく引き離せないようなら、AI業界のトップランナーの地位をMetaに奪われるかもしれません。

Meta社CEO Zukerberg氏のインタビュー

(※)メモは抄訳であり、直訳ではありません。分かりやすさを重視して表現をかなり変えています。より正確な表現を知りたい方は、YouTube動画にアクセスしていただき、該当の秒数の発言をご確認ください。

・2020年にNVIDIAの最新半導体H100を買い集めた理由(07:18)

 レコメンデーション機能でTikTokに追い付きたかったから。(AIの基盤モデル開発競争の激化でNVIDIAの半導体が品薄になり、数多く買い集めた企業が有利になるという)未来が見えていたからではない。

・AGIを目指すようになった理由(11:37)

 最初はプログラミング機能含むいろいろな機能を持つAGIを作ろうとは思っていなかった。FacebookやInstagramのユーザーが、プログラミングに関する質問をするとは思えなかったから。

 しかし1年半ほど前からAIがプログラミング能力を持つことの重要性に気付いた。プログラミングの考え方をAIが持つことで、AIは論理的思考ができるようになり、いろいろな領域の質問に上手に答えられるようになった。

 ビジネスパーソンがクライアントと対話するときも、単にクライアントの質問に答えるだけではだめで、いくつもの会話のステップを先読みして対話を進めていく必要がある。

 お客さんの求めているものは何なのか、お客さん自身も分かっていない場合がある。そんな場合は、目の前の質問だけではなく対話の全行程を俯瞰(ふかん)する能力が必要。それが論理的思考能力。ということで、結局AGIを作らなければならないと気付いたんだ。

・AI進化の方向性(14:29)

 AIにさまざま機能を搭載していくことを考えている。マルチモーダリティ(複数のデータの種類のこと)はわれわれが注力している重要な機能の1つ。最初はテキスト、写真、イメージ。そして動画。3Dデータも重要。

 それとわれわれが注力するモダリティ(データの種類)で、他の人があまり取り組んでいないものに、感情理解がある。人間の脳の大部分は、感情表現を理解するために存在する。写真や動画の内容理解で十分だと思うかもしれないが、感情理解は写真、動画理解の中でも特別な領域。1つの独立したモダリティだと思う。

 それに加えて論理的思考、メモリーなども進化させる必要がある。複雑な質問を全てコンテキストウィンドー(短期記憶の機能)に投げ込めば問題解決するわけではないと思うから。ユーザーごとにカスタマイズされたメモリーを持つカスタムモデルも必要になると思う。

 モデルの大きさに関しては、大きなものも小さなものも作っていく。サーバー上で動く大きなモデルも、スマートグラス上で動く小さなモデルも必要だ。

・AIのユースケース

Q: データセンターは最終的に1000億ドル相当の推論ができる規模。それだけの規模のデータセンターを何に使うつもりか?

A: われわれの全てのプロダクトにAIを使えると思う。Meta AI汎用アシスタントは、チャットボットよりも複雑なタスクを実行できるものになっていく。そのため、かなりのコンピュートと推論が必要になると思う。(16:19)

 1つのAIが全てのことをするようになるとは思っていない。全てのビジネス、全てのクリエーター、インフルエンサーは、自分たち専用のAIを求めるようになるというのが僕の予測だ。自社AIに競合他社の製品を褒めてもらいたくないからだ。

 約2億人のクリエーターがMetaのサービスを使ってくれている。彼らの多くはファンとより密接に交流したいと思っているが、物理的に難しい。ファンもクリエーターとより密接に交流したいと思っている。クリエーターが自分好みにAIを訓練してファンと交流できるようになれば、すばらしいことだと思う。(16:58)

 そうした消費者向けユースケースの他にも、妻とやっている財団で、科学の進歩のためにAIを利用できる。データセンターの用途はいくらでもあると思う。(18:05)

・巨大モデルVS.特化モデル(18:46)

 巨大モデルがいいのか、小規模モデルで特定の用途に特化させるほうがいいのか。正直分からない。

 ただ基盤モデルの外側にツールをいろいろ作っていくことで、次の基盤モデルの内側にどんな機能を追加すべきかは見えてくる。

 例えばLlama2は最新情報を持っていなかったので、検索エンジンにアクセスできるツールを開発した。それが便利だったのでLlama3には検索エンジンにアクセスできるツールが内蔵された。今、Llama3の外側にエージェント的なツールを開発している。それはLlama4に内蔵されるようになると思う。

 つまり、いろいろな追加機能を基盤モデルの外側に実験的に取り付けて試行錯誤することで、次の基盤モデルにどんな機能をつければいいのか明らかになってくるのだと思う(※)。

(※)筆者解説:サードパーティーがLlamaの周辺に追加機能を取り付けた特化型モデルを開発することは奨励するが、その追加機能が多くのユーザーにとって価値のあるものならMeta自身が次期モデルに内蔵していくことになり、次期モデルがリリースされるとサードパーティの特化型モデルが陳腐化する可能性がある、という意味。

・GPUの使い道

 年末までに35万個のGPU(NVIDIA製のAI向け半導体)を購入する計画だが、今は22万個から24万個のクラスター(半導体の集合)で学習と推論の両方を行なっている(※)。Metaは、SNSコミュニティの運営に推論を行わないといけないので、AIの競合他社に比べると推論に割り当てるGPUの割合が多いように思う。(24:00)

(※)筆者解説:半導体は大別すると、2つの用途で使われる。1つはAIモデルにいろいろなことを学ばせるため。その用途は「学習」向けと呼ばれる。もう1つは、学習済みのAIモデルがユーザーの質問に答えるという用途。これは「推論」向けと呼ばれる。

 興味深いのは、70Bのモデルを15兆トークン(※)で学習させたところ、精度が上がり続けたということ。

(※)筆者解説:トークンとはデータ量を示す単位で、英語の場合1つの単語が約1トークン。

 それだけ学習させれば、さすがにそれ以上学習させても性能の向上は見込めないと思っていたのだが、それでも学習量に応じて性能は向上した。性能向上が鈍化する兆しがなかった(※)。もっと70Bの学習を続けたかったんだけど、さすがにLlama4の学習にも取り組みたかったので、仕方なく70Bの学習はいったん打ち切った。(24:57)

(※)筆者解説:中小規模のモデルでも学習データを増やすことで性能が向上し続ける可能性があるということ。Llama3の中規模モデルはLlama2の大規模モデルと同等の性能が出ると言われるが、今後学習データを増やすことで、より高性能な中小モデルが登場する可能性がある。

・AIの指数関数的な進化はいつまで続くのか(26:20)

 誰にも分からない。多分今1000億ドルを投資してもスケール則(AIモデルの規模を大きくすればするほど、性能が向上するのではないかという仮説)が十分続くのではないかと思っている。しかしその先は分からない。この先もこのペースで指数関数的にAIが進化するのかどうか、誰にも分からないと思う。

 ただ歴史的に見ても技術はいつか何らかの壁にぶつかる。今はすごいペースで技術が進化しているので、少々の壁なら超えられているが、それがいつまで続くのかは誰にも分からない。

 過去1〜2年はGPU不足が壁になった。その壁もかなり解消されたので、さらに多くの資本が投入されようとしている。それがどこまでいくのか。しかし投資対効果が行き着くところまで行くまでに、エネルギー不足の壁にぶつかると思う。電力供給は政府によって規制されている。発電所や送電施設の建設など、政府によって多くが規制されているので、実現するまでに長い時間が必要になる。

 今のデータセンターは50メガワットから150メガワット規模。まだ誰も1ギガワットのデータセンターを構築していない。いずれ誰かが建設するだろうけど、何年も先になるだろう。

・なぜオープンソースにするのか(1:06:01)

 全てのソフトをオープンソースで公開しているわけではない。Instagramのコードはオープンにしていない。オープンソースにしているのは、もっと基本的なインフラ部分のコード。サーバーやネットワークスイッチ、データセンターなどのデザインをオープンソースにしている。

 そのおかげでわれわれのサーバーデザインが業界標準になった。そのデザインをベースに周辺パーツも安価で大量生産されるようになり、多くの人がその恩恵を受け、われわれにとっても何十億ドルものコスト削減につながった。

 もしシステムに何百、何千億ドルも使うのであれば、コストが10%削減されただけでも大変大きなメリットになる。

 AIモデルをオープンソースにすることで、AIの学習にかかるコストも削減されるようになるだろうし、性能もよくなる。

 モバイルの領域ではAppleとGoogleがクローズドモデルでエコシステムを牛耳っている。スマホ上で新しい機能のアプリをリリースしようとしても、AppleやGoogleが首を縦にふらなければリリースできない。AIのプラットフォームをそんな風にはしたくない。

 AIプラットフォームがオープンであったとしても、InstagramやFacebookといったわれわれのプロダクトは、誰もがすぐに真似できるものでもない。もしAIをわれわれのプロダクトの1つだと考えれば、オープンにすべきかどうかをより慎重に考えないといけないかもしれないが、今のところAIをわれわれのプロダクトの1つだとみなさなければならないような状況ではない。

 基本的にLlamaの使用料は一定限度まで無料で、一部大企業がLlamaを一定限度以上使って大きな収益を上げるようになれば、その収益に対して使用料をもらうようなライセンスになっている。

 しかし、このライセンス料収入を主要収益源にするつもりは今のところない。Llama2は、ほとんどのクラウドサービスで利用できるようになっている。今後も同様にクラウドサービスに提供しようと思っているが、それをわれわれにとって大きな収入源にしようとは考えていない。

・自社半導体

 自社開発の半導体で大規模言語モデルを学習させたいと思っているが、Llama4ではまだできない。まずはランキングやレコメンデーションに使える推論用チップを開発しようとしている。そうすることでNVIDIAのGPUを学習用に充てることができる。

本記事はエクサウィザーズのAI新聞「マーク・ザッカーバーグ氏インタビュー「なぜAIを無料公開するのか」」(2024年5月14日掲載)を、ITmedia ビジネスオンライン編集部で一部編集の上、転載したものです。

著者プロフィール

湯川鶴章

AIスタートアップのエクサウィザーズ AI新聞編集長。米カリフォルニア州立大学サンフランシスコ校経済学部卒業。サンフランシスコの地元紙記者を経て、時事通信社米国法人に入社。シリコンバレーの黎明期から米国のハイテク産業を中心に取材を続ける。通算20年間の米国生活を終え2000年5月に帰国。時事通信編集委員を経て2010年独立。17年12月から現職。主な著書に『人工知能、ロボット、人の心。』(15年)、『次世代マーケティングプラットフォーム』(07年)、『ネットは新聞を殺すのか』(03年)などがある。


© エクサウィザーズ AI新聞