最新記事一覧
AWSは年次イベント「re:Invent 2025」で、3nmプロセスの新AIチップ「Trainium3」と搭載システム「Trainium3 UltraServer」を発表し、一般提供を開始した。先代比で演算性能最大4.4倍、メモリ帯域幅約4倍を達成。次世代「Trainium4」ではNVIDIAの「NVLink Fusion」をサポートし、GPUとのシームレスな連携を目指す。
()
気軽に試せるラップトップ環境で、チャットbotを提供するオールインワンの生成AI環境構築から始め、Kubernetesを活用した本格的なGPUクラスタの構築やモデルのファインチューニングまで解説する本連載。今回は、AIエージェントシステム全体の「統制」と「接続」を担う基盤となる「AI Gateway」の役割と、その主要プロダクトやOSSを整理します。
()
SnowflakeはNVIDIAとの協業を拡大し、自社のAI Data CloudにGPU処理をネイティブ統合した。CUDA-X系ライブラリを実装し、既存のPythonワークフローでGPUアクセラレーションを活用できる環境を提供する。
()
NVIDIAのクラウドゲーミングサービス「GeForce NOW」において、Ultimateプラン(1カ月プラン)の初回3カ月間が半額となるセールイベントが開催されている。GeForce RTX 5080相当のGPUサーバ
()
NVIDIAの8月〜10月期決算は、売上高は62%増の570億600万ドルと、四半期として過去最高を更新した。データセンター部門の急成長が牽引し、フアンCEOは「AIの好循環に入った」「クラウドGPUは売り切れだ」とコメント。次期四半期の売上高は650億ドルを見込む。
()
Intelが2025年末に一部を出荷する予定の「Core Ultraプロセッサ(シリーズ3)」(開発コード名:Panther Lake)は、「Xe3 GPU」なる新しいGPUコアを搭載する。この記事では演算エンジン回りを中心に、Xe3 GPUをもう少し深掘りしていく。
()
Intelが2025年末に一部を出荷する予定の「Core Ultraプロセッサ(シリーズ3)」(開発コード名:Panther Lake)は、「Xe3 GPU」なる新しいGPUコアを搭載する。この記事では、Xe3 GPUの概要をお伝えする。
()
深刻化する人手不足、変種変量生産や脱炭素への対応など、製造業を取り巻く課題は一層複雑化している。今求められているのは変化に強く、持続可能な生産体制への進化だ。三菱電機は、長年培ってきたコンポーネント技術とデジタルソリューションを融合させることで、こうした課題の解決に挑んでいる。「IIFES 2025」では、新製品の「MELSEC MXコントローラ」を搭載したGPUユニット組み立てデモを中核に、最先端のFAソリューションおよび機器群を出展する。同社の次なる一手を象徴する、意欲的な展示構成の見どころを紹介する。
()
OpenAIはAWSと7年にわたる380億ドルの提携を結んだ。数十万規模GPUを含むAWSの計算基盤を利用し、生成AIの学習と推論を大規模に運用可能とする。UltraServer由来の低遅延クラスターで次世代モデル訓練も視野に、研究開発と性能向上を促進させる。
()
GPU市場を席巻するNVIDIAが、GPUとQPU(量子プロセッサ)を接続する新規格「NVQLink」を発表し、量子コンピューティング分野でも標準化に動いた。31の企業と機関が参画する「オープン戦略」は何を意味するのか。
()
Microsoftは、UAEに総額152億ドル(約2.35兆円)を2029年末までに投資すると発表した。G42への投資や、NVIDIAのGPUを含むAIクラウドインフラ構築を進める。現トランプ政権下で輸出ライセンスも確保した。
()
OpenAIとAWSが複数年の戦略的提携を発表した。7年間で380億ドル規模。OpenAIはAWSのインフラ(EC2 UltraServers、NVIDIA GPU)を利用してAIワークロードを拡張する。AWSは2026年末までに50万個超のチップ規模のインフラを展開する。
()
NVIDIAは、韓国政府やSamsung、SK、Hyundai、NAVERとのAIインフラ協定を発表した。合計26万基以上のGPUで韓国に「AIファクトリー」を建設し、ソブリンクラウドや産業AIを推進する。SamsungはNVIDIAのGPUで半導体製造やロボティクスを強化する。
()
シャープが最新ミッドレンジスマートフォン「AQUOS sense10」を11月13日に発売する。プロセッサにSnapdragon 7s Gen 3を採用し、AQUOS sense9からCPU、GPU、AI性能が向上。通話時に周囲の雑音をカットして自分の声を聞こえやすくする新AI機能も備える。
()
KDDI、さくらインターネット、ハイレゾの3社は、日本のAI開発を支えるため「日本GPUアライアンス」を設立した。相互再販によりGPU資源の安定供給を実現し、国産クラウド基盤で安全性を確保する。
()
本記事では、実際に「NVIDIA GeForce RTX 5060 Ti」を搭載したPCを使って、LM Studioを導入する方法や、活用方法を解説する。例えば、ゲーミングPCを持っている人であれば、GPUパワーをゲームだけでなく、生成AIにも活用できるようになる。
()
NVIDIAは、量子プロセッサとGPUコンピューティングの併用を実現するNVQLink技術を発表した。
()
VDIはコロナ禍で脚光を浴びたかと思いきや、描画性能不足とコスト高騰という課題に直面していた。これを解決する鍵となり得るのが、長年の歴史を持つ国産VDI製品に、仮想GPU技術を組み合わせたソリューションだ。
()
AMDが5月に発表したワークステーション向け新型GPU「Radeon AI PRO R9700」を搭載するグラフィックスカードの単品販売が順次始まる。グラフィックスメモリを多めに積むことで、AIワークロードのパフォーマンスを向上したことが特徴だ。
()
Googleのフラグシップスマートフォン「Pixel 10 Pro」は、AI機能やカメラ性能の高さが特徴だが、ゲームでは物足りない。高負荷のタイトルをプレイしてみたが、パフォーマンスの低下や発熱が目立った。その理由は、新型GPUに対する最適化不足にある。
()
NTTは国産LLM「tsuzumi 2」の提供を開始した。超大規模モデルに匹敵する日本語性能と、1GPUでも動作可能な軽量化を両立させたという。
()
AI活用が広がり、GPUサーバを収容可能なデータセンターが不足することを受け、NTT東日本子会社のNTT-MEがコンテナ型データセンター事業に参入する。短期間で構築でき、地方分散も可能な方式として提供する。
()
CTCは「CUVIC GPU Zero」を提供開始した。生成AIアプリケーションを実行するためのオンプレミスインフラを構築するためのサービスで、AIアプリケーションの自社開発を目指す企業の利用を見込む。
()
NTT東日本グループがコンテナ型データセンター事業に参入する。傘下のNTT-MEが、2025年内に北海道石狩市で約5万m2の土地を確保。最短で27年4月をめどに、1基目の稼働を開始する。主に国内のGPUクラウドベンダーやSIer、大学などの利用を見込む。
()
KDDIは10月22日、欧州子会社のTelehouse International Corporation of Europeが、英国ロンドン市内で新たなデータセンター「Telehouse West 2」の建設を始めたと発表した。生成AI時代のインフラとして、消費電力の大きいGPUサーバーにも対応する。総工費は約600億円で、2027年度の開業を予定する。
()
さくらインターネットが、GPUクラスタをマネージドサービスとして使える「さくらONE」というサービスを発表した。ユーザー組織は、構築や運用に手間をかけることなく大規模なクラスタを利用できる。本記事では、利用可能な構成を含めて新サービスを紹介する。
()
さくらインターネットのマネージドスーパーコンピュータ「さくらONE」で、最新GPU「NVIDIA B200 GPU」が選択可能になった。その経緯や今後目指すことをまとめた。
()
KDDI、さくらインターネット、ハイレゾの3社は「日本GPUアライアンス」を設立した。急速に高まるGPU需要に対し、柔軟かつ安定的に高性能GPUリソースを供給する体制の構築を目指す。
()
NTTは従来モデルから機能強化したLLM「tsuzumi 2」の提供を開始した。日本語性能や特定業界の専門知識を向上しつつ、引き続き1GPUでの動作を可能にすることでオンプレミス環境への導入のし易さを維持した。tsuzumi 2をNTTグループのAI戦略の中核と据える。
()
AIツールの開発に不可欠なGPUを巡り、OpenAIがNVIDIAに続きAMDとも契約を結んだ。しかしAMD製GPUには、性能以外の面で「見過ごせない弱点」も指摘されている。それでもOpenAIが2社と手を組む思惑は何か。
()
AIの覇権を巡り、半導体業界が激動の時代に突入している。GPUの絶対王者NVIDIA、唯一の対抗馬AMD、復活をかける巨人Intel、そしてAIブームをけん引する時代の寵児「OpenAI」。各社が繰り広げる数十兆円規模の出資や戦略的提携は、まさに合従連衡の様相だ。「昨日の敵は今日の友」を地で行く複雑怪奇な関係性の裏には、各社のどんな思惑が隠されているのだろうか? なぜOpenAIはNVIDIAと手を組みつつAMDにも接近するのか。本稿では、混沌とするAI・半導体業界の最新動向を整理し、業界地図を整理する。
()
AIツールの性能はGPUだけでは決まらない。裏側にあるネットワークが、AIツールの応答速度を著しく低下させていることがある。AIツールの真の力を引き出すために不可欠な「可観測性」とは何か。
()
Appleが新型SoCのM5チップを発表した。CPUやGPU、NPUのコア数は変わらないが、さまざまな部分を改良して高速化を果たしている。
()
Appleが、M5チップを搭載した新型「iPad Pro」を10月22日に発売する。M5チップによってGPUやCPU、Neural Engineがさらに進化し、より高度なAI処理が可能になるとアピールする。Wi-Fi+Cellularモデルは、Appleが設計したモバイル通信用のモデム「C1X」を搭載する。
()
GPUへのデータ供給の遅れが、AI推論のボトルネックになっている。この課題に対し、SSD自体を推論処理に特化させるアプローチや、GPUのメモリ構造を変えるアプローチが登場している。その詳細を解説する。
()
RazerとSparkle Computerが、ほぼ同時期にThunderbolt 5接続対応の外付けGPUボックスを投入している。その他、ゲーミングマウスの自作キットや熱伝導グリスの新ブランドも登場した。
()
AMDとOpenAIが戦略的提携を締結した。この提携は、AMDに今後5年間で1000億米ドル以上の収益をもたらすと予想される。さらに、OpenAIはAMDの株式の10%を取得する権利を得る。これによってAMDがNVIDIAからGPU市場のシェアを奪える可能性がある。
()
NECは、仮想GPUに対応したデスクトップ仮想化製品「VirtualPCCenter 6.7」の販売を開始した。VDI利用中にアプリケーションの動作性能が低下する課題を解消する狙いがある。
()
vLLMを使ってローカルLLMサービングを行うケースが増えています。そこで求められるのが、レイテンシ、GPUキャッシュ利用率、エラー率をはじめとした推論実行状況の把握です。本記事では、vLLMにPrometheusとGrafanaを組み合わせ、LLMサービングの「見える化」ダッシュボードを作る方法を紹介します。
()
シー・エフ・デー販売は、台湾Sparkle Computer製となるThunderbolt 5外付け型GPUボックス「TBX-850FAB」の取り扱いを開始する。
()
OpenAIは、AMDとの戦略的提携を通じて、6GW(ギガワット)規模のGPUを段階的に導入し、次世代AIインフラの構築を推進する。第1弾としてMI450シリーズを2026年に導入し、MI300XやMI350Xへと協力を拡大する。
()
2025年11〜12月に福岡〜東京間(約1000キロ)のGPUとストレージをIOWN APNで接続。
()
自動運転開発の“総合商社”を目指すティアフォー。AIの先端技術を活用しながら、各地で自動運転車を走らせるだけでなく、自動運転AIのデータ駆動型開発の実現も目指している。ただ、学習や推論でAIを進化させるには、開発を支えるGPUサーバの「火力」も重要だ。
()
AI分野で協業を拡大させる富士通とNVIDIA。ArmベースCPUの「FUJITSU-MONAKA」やGPUといった両社の技術を組み合わせ、AI技術の活用に適したインフラを共同で構築するという。その具体像とは。
()
気軽に試せるラップトップ環境で、チャットbotを提供するオールインワンの生成AI環境構築から始め、Kubernetesを活用した本格的なGPUクラスタの構築やモデルのファインチューニングまで解説する本連載。今回は、OpenAIが公開したオープンウェイトモデル「gpt-oss」を活用したAIエージェント構築方法を解説します。
()
AMDとOpenAIは、グローバルAIインフラ構築に向けた契約締結を発表した。
()
OpenAIとAMDが、6GW規模のAIインフラ構築に関する包括契約を発表した。AMDはOpenAIの主要なコンピューティングパートナーとなり、複数世代のInstinct GPUを供給する。NVIDIAとも大規模提携を発表しており、OpenAIはAI開発に必要な計算資源を複線的に確保する。
()
富士通は、NVIDIAとAI領域での戦略的協業を拡大すると発表した。産業向けにAIエージェントを統合したフルスタックAIインフラの構築を目指す。記者会見に登壇したNVIDIA CEOのJensen Huang氏は「富士通との新たな協業を発表し、日本のITをAI時代に導けることをうれしく思う」と語った。
()
富士通とNVIDIAが、HPC/データセンター分野における協業を強化する。富士通のArmアーキテクチャベースのCPU「FUJITSU-MONAKA」とNVIDIA製GPUをNVLink Fusionで密結合することで高性能かつ低消費電力のAI基盤の構築を目指す。
()