検索
連載

「Claude Mythos」でセキュリティはどう変わる? 競合「GPT-5.4-Cyber」と比較小林啓倫のエマージング・テクノロジー論考(4/5 ページ)

4月に発表された米AnthropicのAIモデル「Claude Mythos Preview」と米OpenAIの「GPT-5.4-Cyber」。サイバーセキュリティの観点から両者を比較する。

Share
Tweet
LINE
Hatena

 まずOpenAIのTAC型の仕組みの場合、「認証プロセス」と「管理コスト」のジレンマがつきまとう。

 セキュリティ専門家のアンドリュー・スチュワート氏は、著書「情報セキュリティの敗北史」の中で、サイバーセキュリティの歴史において「パッチ管理の泥沼化(Hamster Wheel of Pain)」と彼が呼ぶ状況が発生していたと指摘している。これは文字通り、ベンダー側から発表されるパッチを把握し、迅速に適用するという行為が、管理上大きな負荷になるという状況だ。

 OpenAIのGPT-5.4-Cyberのような「認証プロセスを条件とした利用許可」は、一見合理的かもしれない。しかし「パッチ管理の泥沼化」と同じ構造的問題を引き起こす可能性がある。

 例えば認証を受けた人物や組織のみに高度な機能(サイバー攻撃に転用可能な機能など)を許可する場合、その「認証」が形骸化しないための継続的な監視と、不正利用発生時の対応コストが膨大になるだろう。また過去には、認証そのものが「信頼の偽装」に使われたケースがある。認証制度をつくるのはたやすいが、それを適正な形で運用し続けるのは難しい。

 ではAnthropicのようにアクセスを限定してしまえば良いかというと、これも過去の歴史が問題点を浮き彫りにしている。

 スチュワートの著書によれば、1970年代から80年代にかけての「情報の秘匿」を前提とした軍事主導のセキュリティモデル(オレンジブックなど)は、急速に進化する民間市場のスピードと柔軟性に敗北したという。公的機関による厳格な評価プロセスは、それが完了するのに数年を要することがあったためだ。

 また、多層防御などの複雑な軍事要件はコストを倍増させ、使い勝手やネットワーク機能を重視するPC革命などの市場ニーズとも乖離したため、実用性を求める民間企業に受け入れられなかった。

 AnthropicのMythosのような「非公開・限定公開」の姿勢は、短期的にはリスクを抑え込むように見えるが、歴史的には「限定的な環境では想定外の脆弱性(AIモデルの脆弱性や悪用手法)の発見が遅れる」というリスクを孕んでいる。

 また秘匿に頼る姿勢は、攻撃者が独自に同様の技術(今回で言えばMythosのような先端モデル)を開発・入手した際、防御側が無防備になる「セキュリティ・スルー・オブスキュリティ(隠蔽によるセキュリティ)」のわなに陥る危険性があるとスチュワートは指摘している。

 両社の発表を受けてメディアは早くも「OpenAI対Anthropic」という対立構造で物語を作り始めている。しかしいま必要なのは、「どちらが勝つか」というやじ馬的視点ではなく、両者がどう機能するのか、また逆に機能しそうもないのかを冷徹に観察する視点だ。

企業の経営層が考えるべき3つの問い

 とはいえ、実務の現場はこの論争の結論を待ってはいられない。企業の経営層がすぐにでも自社で問うべき論点が、少なくとも3つある。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る