ChatGPTが注目を集め、生成AI導入の機運が一気に広がった2023年。先進的なIT企業はどのように取り組んでいるのか。日本で生成AIの開発、実装に携わるIT企業4社が生成AI活用の現状と2024年の生成AIの展望を語った。
トークセッションは、2023年12月22日開催の企業による研究発表カンファレンス「CCSE2023」で実施。登壇者は、サイバーエージェントの石上亮介さん、rinnaの沢田慶さん、メルカリの大嶋悠司さん、Sansanの猿田貴之さんの4人だ。
2023年は生成AIが脚光を浴びた1年となった。チャット型で柔軟な受け答えを実現した「ChatGPT」が世界的に注目の的となり、多くの人が生活や仕事の中で使うサービスとなった。ChatGPTを開発する米OpenAIは一躍時の企業となった。
生成AIの基盤となる大規模言語モデル(LLM)の開発競争も進んでいる。LLMは高度な推論タスクを実行するAIで、ChatGPTの場合はGPT-3.5やGPT-4がLLMに相当する。Metaが23年7月に発表した「LlaMa 2」はオープンソースで公開されており、企業が独自にカスタマイズして実装できるようになっている。
2024年の生成AIはどうなるのか。サイバーエージェントの石上さんは「マルチモーダル化」をキーワードとして挙げる。マルチモーダルとは、画像や言語など複数の入力ソースを扱えることを指す。
「OpenAIやGoogleの提供している強力なLLMは、テキストだけでなく画像や動画に対応するマルチモーダル化を進めている。音楽を作曲する生成AIもすでに実現している。生成AI全般のトレンドとして、24年には動画生成がより一般的になるのではないか」(石上さん)
メルカリの大嶋さんは「生成AI(の性能)が向上し、文脈の理解が進むだろう。マルチモーダル化が進むと、周囲の環境を理解できるようになる」とし「近い将来で言えば、AIが職場のチームの一員となって働く環境が当たり前になるのではないか」と予測する。
一方、生成AIの普及が進む上で、より深刻な課題となるのは計算資源の確保だ。LLMは一般的なコンピュータと比べてより曖昧な指示を解釈して実行できるが、実行時には多くの電力を消費する。また、大量のデータを学習して言語モデルを制作する段階では、さらに膨大な電力を消費することになる。
このため、比較的小規模なLLMが連携して、より少ない計算量で適切な答えを得る研究も進められている。石上さんは「24年にはたくさんのモデルが協調して、全体のコストを抑えられるアーキテクチャに取り組む企業が増えるだろう。私たちもやりたいと考えている。この中で、オープンソースのLLM開発の流れが加速していると望ましい」と言及した。
また、日本のAIを取り巻く現状については「日本政府はスピード感を持って動いている」と石上さん。政府は生成AIの活用を推進しており、計算資源の課題についてはクラウド利用を補助する制度を用意している。また、生成AIに利用に伴う規制・ルール作りの観点では著作権法の整備などが他国に先駆けて進んでいる点などを挙げた。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR