AWSは自社のAIモデルに加えて、他社が開発した多様なモデルを単一のAPIで提供している。なぜ他社モデルを積極的に展開するのか。その戦略の真意と、独自モデルが秘める価値を、AWSジャパンの小林正人氏に聞いた。
この記事は会員限定です。会員登録すると全てご覧いただけます。
Amazon Web Services(AWS)は、AIプラットフォーム「Amazon Bedrock」(以下、Bedrock)や「Amazon SageMaker」を通じて、Anthropicの「Claude」やMetaの「Llama」など、多様な基盤モデルを提供している。
一方、自社開発の「Amazon Nova」(以下、Nova)などモデルの存在感は、他の人気モデルに比べて“影が薄い”とも感じる。個人で手軽に利用できるClaudeやLlamaと比較してユーザーが少ないのは当然とも言えるが、同社はAnthropicとの提携を積極的に進めるなど、あえて独自モデルにこだわらない方針を取っているようにも見える。
なぜAWSはこのようなマルチモデル戦略を採るのか、そして独自モデルの真価はどこにあるのか。アマゾン・ウェブ・サービス ジャパン(以下、AWSジャパン)でサービス&テクノロジー事業統括本部 技術本部長を務める小林正人氏に話を聞いた。
AWSはなぜ単一の強力なモデルではなく、複数のモデルを提供する戦略をとるのか。小林氏はこの点について以下のように説明する。
「お客さまのタスクは多岐にわたるため、1つのモデルで全てをカバーするのは難しいと考えています。コーディング支援やテキスト校閲、画像生成、動画生成、音声処理など、各用途に適したモデルを提供することで、お客さまは最適なモデルを選択できる柔軟性を持つことができます。これにより、一律の大規模モデルではなく、用途に合わせたコストパフォーマンスとレイテンシ、機能性のバランスが取れるのです」
モデルが頻繁にアップデートされるため、先週までは「ChatGPT」を使っていたが、今週は「Claude」を使っている、という経験がある人もいるだろう。複数のモデルを使うと、それぞれの得意不得意も見えてくる。この戦略からは、そのようなユーザーに寄り添いたいという意図が読み取れる。
さまざまなモデルの中でも、特にAWSが力を入れて提供するのがAnthropicの「Claude」だ。自社モデルを持ちながら、なぜ他社のモデルを強力にプッシュするのか。
小林氏は、「エンタープライズの顧客はClaudeを非常に高く評価しています」と語る。AWSはAnthropicへの出資だけでなく、次世代モデル開発のために自社製チップ「Trainium」を提供するなど、密接な協力関係を構築。「両社で価値の向上を目指している」という。これは、自社モデルとの競合ではなく、顧客への価値提供を最大化するための戦略的パートナーシップと捉えられる。
では、「影が薄い」と見られがちな自社モデルの価値はどこにあるのか。小林氏は、Novaの最大の強みとして「業界をリードするコストパフォーマンス」を挙げる。
「ClaudeやOpenAIのGPTシリーズと比較しても、必要な機能は十分に備えています。その上で、特定の用途ではコストを1桁落とすことも可能です」
本稿執筆時点において、東京リージョンでの「Claude Sonnet 4.5」と「Amazon Nova Pro」(Novaの上位モデル)の料金は以下の通りだ。確かに小林氏の言うように「1桁落とす」ことも可能そうだ。
| Claude Sonnet 4.5 | Amazon Nova Pro | |
|---|---|---|
| 料金/1000入力トークン | 0.006ドル | 0.00096ドル |
| 料金/1000出力トークン | 0.015ドル | 0.00384ドル |
低価格の秘密は、自社開発による中間コストの削減と、独自のアクセラレーター技術を最大限に活用することで、トレーニングと推論の効率を向上させている点にあるという。この価格競争力を武器に、Novaは着実にシェアを広げているようだ。
「具体的な数字はお話しできませんが、Claudeの人気が非常に高い一方で、コスト面からNovaへ乗り換えるケースも『珍しくない』レベルで存在しており、一定のシェアを持っていると感じています」と小林氏は明かす。
開発現場では、テキスト処理やマルチモーダルタスクでは主にClaudeとNovaが選択肢となり、画像生成や音声生成ではそれぞれに特化したモデル、さらに細かいカスタマイズを求める場合はMetaの「Llama」などが選ばれているという。
AWSの生成AI戦略は、あくまで顧客の多様なユースケースに合わせて最適なツールを提供するという方針に基づいている。
AWS、「Microsoft Azure」「Google Cloud」では、最先端のモデル、いわゆる「フロンティアモデル」は自社または提携先のモデル1種しか使えないのが現状だ(ただし、API経由で利用する場合はこの限りではない)。OpenAIやGoogleのモデルがアップデートされると、そちらを使いたくなるユーザーもいるだろうが、Microsoftと提携するOpenAIや、自社のクラウドサービスを持つGoogleがモデルをAWSに解放することは考えにくい。一方、Oracle Cloud Infrastructure(OCI)でGeminiが提供された前例もある。また、OpenAIのオープンウェイトモデル「gpt-oss」は既にAWSでも利用可能だ。企業のさまざまなシステムがAWSで稼働しているからこそ、今後の選択肢の拡大にも期待したい。
Microsoft 365 Copilot、ついに“エージェント化” ExcelやWordで複雑なタスクを段階的に処理する新機能
“AIエージェントの次”のトレンドは何か Gartnerが描く未来志向型インフラのハイプ・サイクル
生成AI、進化の鍵を握る「長期思考」 Sakana AIが挑む“人間のように試行錯誤するAI”への道筋Copyright © ITmedia, Inc. All Rights Reserved.