キーワードを探す
検索

「InfiniBand」関連の最新 ニュース・レビュー・解説 記事 まとめ

最新記事一覧

急速に進化するAI技術との融合により変わりつつあるスーパーコンピュータの現在地を、大学などの公的機関を中心とした最先端のシステムから探る本連載。第7回は、2002年に初代システムが稼働を開始したJAMSTECの「地球シミュレータ」を取り上げる。

()

2022年以降、生成AIはブームを超えた存在になりつつあるといっても過言ではありません。気軽に試せるラップトップ環境で、チャットbotを提供するオールインワンの生成AI環境構築から始め、Kubernetesを活用した本格的なGPUクラスタの構築やモデルのファインチューニングまで解説する本連載。初回は、ローカル環境でカンタンに生成AIモデルを実行する方法や、生成AIを学んでいく上で押さえておきたいアーキテクチャを丁寧に解説します。

()

急速に進化するAI技術との融合により変わりつつあるスーパーコンピュータの現在地を、大学などの公的機関を中心とした最先端のシステムから探る本連載。第1回は、2024年4月に稼働を開始した東京工業大学の「TSUBAME 4.0」を取り上げる。

()

これまであまり物理的なサーバとストレージに触れてこなかった方を対象に、AWSを用いてサーバとストレージの基礎知識を解説する連載。第2回は、Amazon EC2向けのストレージサービス「Amazon EBS」を詳しく解説する。

()

AI開発に不可欠となった「GPU」。GPUの性能をフルに活用し、膨大なデータを高速に処理するためにはGPUサーバ同士を結ぶ「ネットワーク技術」が重要になるという。では、どうすれば“GPUを生かせるネットワーク”を構築できるのか。そのポイントはどこにあるのか。

()

NVIDIAは「GTC 2024」において、新たなGPUアーキテクチャ「Blackwell」を発表。AI処理性能で前世代アーキテクチャ「Hopper」の5倍となる20PFLOPSを達成。生成AIの処理性能向上にも注力しており、Hopperと比べて学習で4倍、推論実行で30倍、消費電力当たりの処理性能で25倍となっている。

()

Microsoftは企業のAI活用を支援するAzure AIインフラストラクチャおよびサービスの新展開を発表した。発表されたのは、Azure AIインフラストラクチャに含まれる「ND H100 v5」仮想マシンシリーズの一般提供開始と、「Azure OpenAI Service」のグローバル展開だ。

()

MicrosoftはNVIDIAのH100を8基搭載する仮想マシン(VM)「Azure ND H100 v5」の提供をプレビューとして開始した。大規模で複雑な生成系AIモデルのトレーニング向けだ。「Azureは大規模な変革型AIワークロードを開発、実行するための場だ」とスコット・ガスリー氏。

()

NVIDIAが、新アーキテクチャのデータセンター向けGPUを発表した。現行のAmpereアーキテクチャから演算能力やデータ点速度を引き上げた他、別売の専用ハードウェア(ラック)を用意することで最大256基のGPUをより高速に連結できる仕組みも用意した。

()

前回の記事でお問い合わせを多くいただいたのが、新しい規格と紹介したNPO(Near Package Optics)と、CPO(Co-packaged Optics)が適用されると想定した新しい適用システムとして紹介したDisaggregated Systemに関してであった。今回はそれを少し詳しく触れてForm Factorの締めくくりとしたい。

()

複雑化が進む製品開発において、CAEを活用した解析業務の果たす役割はますます大きくなっている。CAEの利用頻度が上がるだけでなく、解析処理のさらなる高速化や大規模モデルへの対応、よりメッシュ数の多い高精細な解析など、その要求も高まっていくことが予想される。また、ニューノーマル時代に向けてリモートワークに対応した環境整備も求められる。果たして、現在の解析環境のままで業務のさらなる効率化・高度化を実現できるだろうか。あらためて、HPCという選択肢について考えたい。

()
キーワードを探す
ページトップに戻る