メディア
ITmedia AI+ >

話題の中華LLM「DeepSeek R1」は、天安門事件を説明できるか あれこれ質問した(2/2 ページ)

» 2025年01月23日 17時29分 公開
[吉川大貴ITmedia]
前のページへ 1|2       

ローカルなら回答が得られる場合も ただし……

 一方、モデルをローカルで動かした際には、一連の質問に対する回答が得られるケースがあった。ただしモデルのサイズが大きくなると、回答が拒否される場合もあった。

 R1そのものはサイズが大きすぎて筆者の環境では動かせないため、R1をベースにした蒸留(既存の大きなモデルを基に、近い性能を持ったより小さいモデルを開発する手法)モデルのうち、「DeepSeek-R1-Distill-Qwen-32B」を4bit量子化(精度を下げて軽量化)したモデルと、2bit量子化(さらに精度を下げて軽量化)したモデル、「DeepSeek-R1-Distill-Llama-8B」を利用。各モデルをローカルでLLMを動かすためのツール「LM Studio」で試したところ、いずれも途中で遮られることなく答えが得られた。

 最もサイズが小さいDeepSeek-R1-Distill-Llama-8Bの場合、天安門事件や尖閣諸島を巡る問題、中国の歴史、習近平国家主席に関する質問でも回答が得られた。ただし日本語だと、回答に別の言語が混じったり、文章が破綻したりすることがあり、回答の精度がやや不安定だった。

 DeepSeek-R1-Distill-Qwen-32Bの2bit量子化モデルだと、回答の精度が向上。天安門事件について「中国政府は軍隊を派遣し、鎮圧を行った」、習近平国家主席について「国際的には政治的圧力や人権問題での批判も受ける」とする回答が得られた。

 しかし4bit量子化モデルにした途端「この質問に答えられない」との回答に。英語でも同様だった。どうやら、モデル自体にもある程度の“偏り”がある様子だ。小さいモデルだとコントロールが効かないものの、大きなモデルになると検知や表現能力の向上に伴って偏りが表出するのかもしれない。もちろん、今回試したものには蒸留モデルや、それをさらに量子化したものが含まれるので、オリジナルではそれぞれ回答が異なる可能性もあるが。


 DeepSeek-R1シリーズは商用利用が可能だが、モデル自体に何らかの“思想統制”が働いているのであれば、ビジネスなどでの活用がはばかられる可能性はある。用途にもよるが「このサービスは、特定の政治的思想の影響を受けているんじゃない?」と突っ込まれる余地は生まれるだろう。

 DeepSeek-R1に限った話ではないものの、利用に当たっては、ベースに使うLLMが誰によって作られたかなど、地政学リスクに関する判断が適宜必要になりそうだ。

生成AIの最新テクノロジーや活用トレンドを解説

 生成AIでどのように業務を変革していくべきなのか──企業の生成AI活用について、ITmediaのIT&ビジネス系メディアが総力でお届けする「ITmedia AI Boost」を開催します。企業のリアルな事例や専門家の詳しい解説などを配信します

photo
前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ