メディア
ITmedia AI+ >

DeepSeekが目覚めた? サイバーエージェントの追加学習モデルに「天安門事件」を聞いたら様子が違った(2/2 ページ)

» 2025年01月29日 18時30分 公開
[吉川大貴ITmedia]
前のページへ 1|2       

示された「オープンであることのリスクと可能性」

 だからなんだという話だが、この結果には示唆がある。DeepSeekのようにモデルが公開されてさえいれば、モデル本体が抱える思想的なリミッターを解除あるいは軽減できる実例が示された点だ。DeepSeekの例でいえば、オリジナルに思想統制があっても、公開されたモデルをチューニングすればそれを低減できたわけだ。

 検証通り、モデルによる言論には若干のバイアスもあったが「何も答えてもらえない」「途中までしか答えてもらえない」とは大きな違いだろう。なお、サイバーエージェントは「今回のモデル改善は日本語による思考・出力を安定させる目的で行っており、特定の質問に関するチューニングは行っていない」という。

 この事実は、AIを巡るさまざまな議論において、論拠の一つになるかもしれない。ビッグテックに対して「中国の企業ですらオープンにしたのだから、表現や思想の自由を守るためにモデルを公開しろ」という圧力を強める論拠にも、逆に企業が「安全や倫理のため、モデルは秘めておこう」とする論拠にもなる。今後中国が、AIモデルの自由な公開を規制する口実にもなり得るだろう。

 そもそもAIの回答に傾向があるのは、DeepSeekに限らない。チューニングでモデルの指向性をいじれるのは周知の事実だ。恐らくは今回のような結果も、サイバーエージェントのモデルに限らず得られる可能性があるだろう。

 しかし、ただでさえ注目度が高く、しかも地政学リスクが露骨なDeepSeekでこの事実が示されたとなると、その影響度も変わるかもしれない(27日夜に起きた株式市場の騒乱が、その潜在的な可能性を示している)。DeepSeekが投じた一石が、今後どう広がるか、注意深く見ていく必要がありそうだ。

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ