最新記事一覧
急速に進化するAI技術との融合により変わりつつあるスーパーコンピュータの現在地を、大学などの公的機関を中心とした最先端のシステムから探る本連載。第7回は、2002年に初代システムが稼働を開始したJAMSTECの「地球シミュレータ」を取り上げる。
()
NVIDIAは2025年9月10日、次世代GPU「Rubin CPX」を発表した。大規模コンテキスト処理に特化し、ソフトウェア開発支援や映像生成AIに貢献する。
()
AI導入を進める企業にとって、GPUやAIサーバを支えるネットワークの最適化は不可欠だ。CIOの期待に応えるには、AIワークロードに対応したインフラ戦略と相互接続技術の選定が重要となる。
()
AIワークロードを動かすためのネットワークをどのように再設計すべきかについて、企業は頭を悩ませている。AIインフラのネットワーク運用のヒントを、Gartnerの提言を基に解説する。
()
GPUの性能を最大限引き出すために、どのようなネットワークを選ぶべきかに悩む企業は少なくない。Gartnerが推奨する事項を基に、そのヒントを紹介する。
()
東京工科大学は、米NVIDIAの最新GPUアーキテクチャ「Blackwell」を活用するAIスーパーコンピュータを私立大学として国内で初めて導入する。稼働開始は2025年10月を予定。
()
NVIDIAは2025年のGTCでGPUのロードマップを公開し、「Blackwell Ultra」や「Vera Rubin」をはじめとする新製品群を発表した。同社はAI市場のニーズにどう応えていく計画なのか。
()
急速に進化するAI技術との融合により変わりつつあるスーパーコンピュータの現在地を、大学などの公的機関を中心とした最先端のシステムから探る本連載。第5回は、2025年1月に一般提供を開始した産総研の「ABCI 3.0」を取り上げる。
()
NVIDIAは、約1年前に発表したAIファクトリープラットフォーム「NVIDIA Blackwell」の後継となる「NVIDIA Blackwell Ultra」を発表した。
()
NVIDIAは、米国サンノゼで開催中のユーザーイベント「GTC 2025」の基調講演において同社のGPUアーキテクチャのロードマップを発表した。
()
電力効率やコストが懸念されるAIデータセンターでは、チップレット集積の適用が現実的だとされる。チップレット集積技術の進化の鍵を握るのが、インターコネクト技術だ。
()
2022年以降、生成AIはブームを超えた存在になりつつあるといっても過言ではありません。気軽に試せるラップトップ環境で、チャットbotを提供するオールインワンの生成AI環境構築から始め、Kubernetesを活用した本格的なGPUクラスタの構築やモデルのファインチューニングまで解説する本連載。初回は、ローカル環境でカンタンに生成AIモデルを実行する方法や、生成AIを学んでいく上で押さえておきたいアーキテクチャを丁寧に解説します。
()
技術革新が進み、LLMをクラウドサービスや自社データセンターではなく、手元のPCで動かすことが技術的に可能になった。何をすれば実現できるのか。複数人での利用時に発生する問題点を解消できるツールとは。
()
産業技術総合研究所(産総研)は、柏センター(千葉県柏市)内に構築した大規模AI計算システム「ABCI 3.0」の一般提供を開始したと発表した。
()
東京大学 情報基盤センターと筑波大学 計算科学研究センターの共同組織である最先端共同HPC基盤施設(JCAHPC)は、最新のスパコン「Miyabi」を報道陣に公開した。
()
急速に進化するAI技術との融合により変わりつつあるスーパーコンピュータの現在地を、大学などの公的機関を中心とした最先端のシステムから探る本連載。第3回は、東京大学と筑波大学が共同で構築した「Miyabi」を紹介する。
()
生成AIを活用した完全自動運転車両の開発に取り組むチューリングは、完全自動運転を実現するための専用計算基盤「Gaggle Cluster」(ガグルクラスター)の運用を開始した。
()
自動運転のスタートアップ企業チューリングが完全自動運転のための専用計算基盤「Gaggle Cluster」(ガグルクラスター)の運用を開始した。AI処理に特化して大量のGPUを最小のボトルネックで運用するように最適化したハードウェア構成を取る。
()
Turingは完全自動運転の実現に向けて専用計算基盤「Gaggle Cluster」を構築し、運用を開始した。
()
NVIDIAは2024年7月、ネットワーク分野の新興企業に出資した。既にネットワーク技術は持っているのに、なぜ新たな投資をする必要があったのか。投資先企業のCEOに聞いた。
()
生成AIを業務で活用する場合、適切なデータを活用して生成AIを最適化することがカギとなる。しかし、どのように実現すればいいのか。多くの企業が悩むこの問題に日立とAWSが提示する解決策とは。
()
急速に進化するAI技術との融合により変わりつつあるスーパーコンピュータの現在地を、大学などの公的機関を中心とした最先端のシステムから探る本連載。第1回は、2024年4月に稼働を開始した東京工業大学の「TSUBAME 4.0」を取り上げる。
()
データセンターネットワークの性能はAIの処理能力に影響を直接与える。AIの処理能力を高速化するためのネットワークの設計のポイントや技術を紹介する。
()
これまであまり物理的なサーバとストレージに触れてこなかった方を対象に、AWSを用いてサーバとストレージの基礎知識を解説する連載。第2回は、Amazon EC2向けのストレージサービス「Amazon EBS」を詳しく解説する。
()
過去最高の四半期売上高を達成したNVIDIA。データセンター分野での業績が好調だ。特に何が同社の成長を支えているのか。
()
日本オラクルは2025年5月期の事業戦略説明会を開催した。取締役執行役社長の三澤智光氏が、グローバルを含めたOracleのクラウドビジネスの概況と日本市場に対する重点施策を説明した。同社が語る「日本のためのクラウド」とは。
()
AI開発に不可欠となった「GPU」。GPUの性能をフルに活用し、膨大なデータを高速に処理するためにはGPUサーバ同士を結ぶ「ネットワーク技術」が重要になるという。では、どうすれば“GPUを生かせるネットワーク”を構築できるのか。そのポイントはどこにあるのか。
()
GPUのリソースを有効に活用してAI技術の処理を実行するには、従来のインフラ設計とは異なる観点が求められる。GPUの効果的な活用を模索している研究機関CERNによる取り組みと、GPU活用の要点とは。
()
AGIの構築をビジョンとして掲げるMetaは、生成AIインフラをどう構築しているのか。公式エンジニアリングブログで最新の取り組みを紹介した。
()
AI企業のDatabricksは“オープンな”汎用LLM「DBRX」をリリースした。サイズは1320億パラメータとMetaのLlama 2のほぼ2倍だが、速度もLlama 2の2倍という。
()
NVIDIAは「GTC 2024」において、新たなGPUアーキテクチャ「Blackwell」を発表。AI処理性能で前世代アーキテクチャ「Hopper」の5倍となる20PFLOPSを達成。生成AIの処理性能向上にも注力しており、Hopperと比べて学習で4倍、推論実行で30倍、消費電力当たりの処理性能で25倍となっている。
()
SSDの接続に使われる「NVMe」は、SATAやSASとは何が違い、なぜSATAやSASとは別物の技術だと見なせるのか。SSDをより深く理解するための基本を解説する。
()
米NVIDIAは同社が独自に開発したデータセンター規模のスーパーコンピュータ「Eos」をブログと動画で披露しました。
()
IBMは、「IBM Storage Scale System 6000」を発表した。今日のデータ集約型およびAIワークロードの需要に対応するよう設計されたクラウドスケールのグローバルデータプラットフォームだとしている。
()
Google Cloudは、信頼性の高い低レイテンシのハードウェアトランスポート「Falcon」を、Open Compute Project(OCP)を通じてイーサネットエコシステムに公開した。
()
Microsoftは企業のAI活用を支援するAzure AIインフラストラクチャおよびサービスの新展開を発表した。発表されたのは、Azure AIインフラストラクチャに含まれる「ND H100 v5」仮想マシンシリーズの一般提供開始と、「Azure OpenAI Service」のグローバル展開だ。
()
生成AIは半導体業界にどのような影響を与えているのでしょうか。
()
NVIDIAは新しいクラスの大規模メモリを搭載したAI用スーパーコンピュータ「NVIDIA DGX GH200」を発表した。
()
MicrosoftはNVIDIAのH100を8基搭載する仮想マシン(VM)「Azure ND H100 v5」の提供をプレビューとして開始した。大規模で複雑な生成系AIモデルのトレーニング向けだ。「Azureは大規模な変革型AIワークロードを開発、実行するための場だ」とスコット・ガスリー氏。
()
Meta Platformsが開発したスーパーコンピュータ「AI Research SuperCluster」(RSC)は、同社のこれまでのシステムとどう違うのか。どのようなハードウェアで構成されているのか。
()
富士通は、36量子ビットの量子回路を扱うことができる、並列分散型の「量子コンピュータシミュレーター」を開発した。スーパーコンピュータ「富岳」にも搭載されているCPU「A64FX」を活用するなどして、「世界最速」を実現した。
()
NVIDIAが、新アーキテクチャのデータセンター向けGPUを発表した。現行のAmpereアーキテクチャから演算能力やデータ点速度を引き上げた他、別売の専用ハードウェア(ラック)を用意することで最大256基のGPUをより高速に連結できる仕組みも用意した。
()
前回の記事でお問い合わせを多くいただいたのが、新しい規格と紹介したNPO(Near Package Optics)と、CPO(Co-packaged Optics)が適用されると想定した新しい適用システムとして紹介したDisaggregated Systemに関してであった。今回はそれを少し詳しく触れてForm Factorの締めくくりとしたい。
()
Meta(旧Facebook)は「AI Research SuperCluster(RSC)」を発表した。NVIDIAのGPUシステムを採用しており、2022年半ばに完成の見込み。有害コンテンツの特定に役立ち、メタバース構築を支える。
()
Xilinxは、HPCやビッグデータワークロードの用途で、優れたワット当たりの性能を可能にするアクセラレーターカード「Alveo U55C」を発表した。同時に発表したAPI駆動型クラスタリングソリューションを活用することで、FPGAの大規模運用が容易に可能となる。
()
複雑化が進む製品開発において、CAEを活用した解析業務の果たす役割はますます大きくなっている。CAEの利用頻度が上がるだけでなく、解析処理のさらなる高速化や大規模モデルへの対応、よりメッシュ数の多い高精細な解析など、その要求も高まっていくことが予想される。また、ニューノーマル時代に向けてリモートワークに対応した環境整備も求められる。果たして、現在の解析環境のままで業務のさらなる効率化・高度化を実現できるだろうか。あらためて、HPCという選択肢について考えたい。
()
GPUとストレージが直接データをやりとりできるNVIDIAの「GPUDirect Storage」が一般に利用可能になった。まずはどのような仕組みなのか、ざっくりと理解しておこう。
()