CloudflareがHugging Faceと連携するAI開発用サービスをリリースした。同社CEOが「ちょうど良い位置にある」と話す同サービスの特徴とは。
この記事は会員限定です。会員登録すると全てご覧いただけます。
Cloudflareは2024年4月2日(現地時間)、世界150以上の都市でAIコラボレーションプラットフォーム「Hugging Face」とCloudflareをつなげるAIインフラサービス「Workers AI」の提供を始めた(注1)。
Workers AIはGPU搭載の開発プラットフォーム。Hugging Faceとの連携で、公開されているAIモデルをCloudflareのサーバレスクラウド環境にデプロイできる。
2023年は多くの企業が生成AIプロジェクトを加速させた。そんな中、CloudflareのエンジニアはGPUをエッジネットワーク全体に配備しようと奔走していた(注2)。同社のマシュー・プリンス氏(CEO)は2023年12月に「CIO Dive」の取材に対して「われわれはドメイン固有のデータを使って事前に訓練されたモデルをカスタマイズする推論ワークロードを対象としている」と語った。
Cloudflareはネットワークのパフォーマンスとセキュリティを重視しており、これは「データの安全性確保」「データが存在する場所にAIモデルをデプロイできること」といった企業のニーズと合致している(注3)。
たとえ途中で幾つかの障害にぶつかることになったとしても、企業は考えられるユースケースを試行錯誤しながら探ることに意欲的だ(注4)。データの安全性が確保されている限り、早い段階で失敗することで価値の高いアプリケーションを絞り込める。総合不動産サービス会社のCushman & Wakefieldのショーナ・カートライト氏(ビジネス情報オフィサー兼法人向け技術担当シニアバイスプレジデント)は、2024年3月に開催された「CIO Dive」のパネルで次のように述べた(注5)。
「昨今の生成AIブームにより、各業界の企業はAIに膨大な時間と資金を投資している。そのうち一部はうまくいくだろうが、デモ通りに本番環境に投入するのは信じられないほど難しく、それが問題だ」(カートライト氏)
Cloudflareのソリューションは、開発者がHugging Faceのオープンソースモデルライブラリに簡単にアクセスできるように設計されている。また、Workers AIは小規模なデータセットで大規模なモデルを微調整するために最適化されているという。
「組織とその開発者は、GPUやインフラのセットアップ、管理、保守をすることなく、迅速かつ手頃な価格で実験と反復ができる必要がある」(Cloudflare)
同社は、巨大なハイパースケーラーのデータセンターとエンドユーザーとの間のギャップを埋めることに注力している。
2024年2月の決算説明会で、プリンス氏は次のように語った。
「この分野ではわれわれはちょうど良い位置にいる。中央集権的なパブリッククラウドはユーザーからは遠すぎ、人々の手元にあるデバイスはパワー不足だ。モデルを調整するだけでなく、ローカルで調整しながらも推論タスクを実行できるほど強力なGPUのパワーを持っているというのは、本当に強力な組み合わせだ」(プリンス氏)(注6)
(注1)Cloudflare Powers One-Click-Simple Global Deployment for AI Applications with Hugging Face(Cloudflare)
(注2)Cloudflare (NET) Q4 2023 Earnings Call Transcript(The Motley Fool)
(注3)Generative AI unlocks the door to unstructured enterprise data(CIO Dive)
(注4)Why generative AI experiments fail(CIO Dive)
(注5)Enterprises plan to boost reliance on distributed cloud(CIO Dive)
(注6)Cloudflare doubles down on inference workloads(CIO Dive)
© Industry Dive. All rights reserved.