技術トレンド:
自動運転専用ハードウェア「Gaggle Cluster」とは AI処理特化で自動運転モデル「TD-1」を動かす
自動運転のスタートアップ企業チューリングが完全自動運転のための専用計算基盤「Gaggle Cluster」(ガグルクラスター)の運用を開始した。AI処理に特化して大量のGPUを最小のボトルネックで運用するように最適化したハードウェア構成を取る。(2024/11/5)
自動運転技術:
Turingが完全自動運転AIの開発で専用の計算基盤、NTTグループが協力
Turingは完全自動運転の実現に向けて専用計算基盤「Gaggle Cluster」を構築し、運用を開始した。(2024/10/31)
AIネットワーキングの意味が変わる?:
NVIDIAがこの新興ネットワーク企業に投資したのはなぜか
NVIDIAは2024年7月、ネットワーク分野の新興企業に出資した。既にネットワーク技術は持っているのに、なぜ新たな投資をする必要があったのか。投資先企業のCEOに聞いた。(2024/10/2)
「生成AIはデータが全て」 日立とAWSが提唱する「データの価値を引き出す方法」とは
生成AIを業務で活用する場合、適切なデータを活用して生成AIを最適化することがカギとなる。しかし、どのように実現すればいいのか。多くの企業が悩むこの問題に日立とAWSが提示する解決策とは。(2024/9/30)
AIとの融合で進化するスパコンの現在地(1):
東工大「TSUBAME 4.0」は“みんなのスパコン”としてどのような進化を遂げたのか
急速に進化するAI技術との融合により変わりつつあるスーパーコンピュータの現在地を、大学などの公的機関を中心とした最先端のシステムから探る本連載。第1回は、2024年4月に稼働を開始した東京工業大学の「TSUBAME 4.0」を取り上げる。(2024/8/19)
AIに必要なネットワーク【後編】
AI処理の“爆速化”に欠かせない「ネットワークの重要技術」はこれだ
データセンターネットワークの性能はAIの処理能力に影響を直接与える。AIの処理能力を高速化するためのネットワークの設計のポイントや技術を紹介する。(2024/8/1)
AWSで学ぶクラウド時代のサーバ&ストレージ基礎知識(2):
ストレージなんて見たことがない――基礎から学びたい人の「ブロックストレージ」超入門
これまであまり物理的なサーバとストレージに触れてこなかった方を対象に、AWSを用いてサーバとストレージの基礎知識を解説する連載。第2回は、Amazon EC2向けのストレージサービス「Amazon EBS」を詳しく解説する。(2024/7/19)
データセンター事業が特に好調
NVIDIAが「過去最高の売上高」を記録 “快進撃”が続く理由は?
過去最高の四半期売上高を達成したNVIDIA。データセンター分野での業績が好調だ。特に何が同社の成長を支えているのか。(2024/7/18)
「AIを追い風に」 クラウド市場のゲームチェンジを狙うオラクルの戦略
日本オラクルは2025年5月期の事業戦略説明会を開催した。取締役執行役社長の三澤智光氏が、グローバルを含めたOracleのクラウドビジネスの概況と日本市場に対する重点施策を説明した。同社が語る「日本のためのクラウド」とは。(2024/7/17)
ネットワーク帯域幅だけでは性能は出せない:
PR:AI開発を支えるGPUの性能をフルに生かせるネットワーク構築の重要ポイントとは
AI開発に不可欠となった「GPU」。GPUの性能をフルに活用し、膨大なデータを高速に処理するためにはGPUサーバ同士を結ぶ「ネットワーク技術」が重要になるという。では、どうすれば“GPUを生かせるネットワーク”を構築できるのか。そのポイントはどこにあるのか。(2024/6/28)
研究機関が模索するGPU活用
「GPUを使うとデータセンターの“あれ”が変わる」 研究機関がAI活用を語る
GPUのリソースを有効に活用してAI技術の処理を実行するには、従来のインフラ設計とは異なる観点が求められる。GPUの効果的な活用を模索している研究機関CERNによる取り組みと、GPU活用の要点とは。(2024/5/26)
PR:“地球シミュレータ”JAMSTECの新「四次元仮想地球」に見るHPCの進化形 多様なニーズとセキュリティをどう両立?
(2024/4/16)
PR:「生成AIの性能はGPUで決まる」論の間違い 性能アップにつながるインフラの作り方
(2024/4/10)
2万4576個のGPUを搭載したクラスタを構築:
Metaは生成AIの研究開発を支えるAIインフラ環境をどのように構築しているのか
AGIの構築をビジョンとして掲げるMetaは、生成AIインフラをどう構築しているのか。公式エンジニアリングブログで最新の取り組みを紹介した。(2024/4/3)
Databricks、“オープン”な汎用LLM「DBRX」リリース 商用利用可
AI企業のDatabricksは“オープンな”汎用LLM「DBRX」をリリースした。サイズは1320億パラメータとMetaのLlama 2のほぼ2倍だが、速度もLlama 2の2倍という。(2024/3/28)
人工知能ニュース:
NVIDIAの新アーキテクチャ「Blackwell」は生成AI特化、汎用人型ロボットにも適用
NVIDIAは「GTC 2024」において、新たなGPUアーキテクチャ「Blackwell」を発表。AI処理性能で前世代アーキテクチャ「Hopper」の5倍となる20PFLOPSを達成。生成AIの処理性能向上にも注力しており、Hopperと比べて学習で4倍、推論実行で30倍、消費電力当たりの処理性能で25倍となっている。(2024/3/19)
駆逐するSSD、生き残るHDD【第4回】
同じSSDでもなぜ「NVMe」接続はSASやSATAとは“別物”なのか?
SSDの接続に使われる「NVMe」は、SATAやSASとは何が違い、なぜSATAやSASとは別物の技術だと見なせるのか。SSDをより深く理解するための基本を解説する。(2024/3/17)
NVIDIA、4608基のH100GPUを搭載したデータセンター規模のAIスパコン「Eos」を披露
米NVIDIAは同社が独自に開発したデータセンター規模のスーパーコンピュータ「Eos」をブログと動画で披露しました。(2024/2/20)
PR:筑波大学のスパコン「省エネ性能で日本一」は何がすごいのか “最先端”に懸ける思い
(2024/1/23)
非構造化データに対応:
IBM、データおよびAI向けストレージの新製品「IBM Storage Scale System 6000」を発表
IBMは、「IBM Storage Scale System 6000」を発表した。今日のデータ集約型およびAIワークロードの需要に対応するよう設計されたクラウドスケールのグローバルデータプラットフォームだとしている。(2023/11/8)
AI主導の今後のネットワーキング要件に対応:
Google Cloud、低レイテンシのハードウェアトランスポート「Falcon」を公開
Google Cloudは、信頼性の高い低レイテンシのハードウェアトランスポート「Falcon」を、Open Compute Project(OCP)を通じてイーサネットエコシステムに公開した。(2023/10/23)
NVIDIA H100 GPU搭載VMが正式リリース:
「Azure OpenAI Service」は1日100の新規顧客を獲得――Microsoft、AIビジネスの現在地は
Microsoftは企業のAI活用を支援するAzure AIインフラストラクチャおよびサービスの新展開を発表した。発表されたのは、Azure AIインフラストラクチャに含まれる「ND H100 v5」仮想マシンシリーズの一般提供開始と、「Azure OpenAI Service」のグローバル展開だ。(2023/8/14)
電子機器設計/組み込み開発メルマガ 編集後記:
生成AIと半導体業界
生成AIは半導体業界にどのような影響を与えているのでしょうか。(2023/6/5)
前世代と比較してほぼ500倍のメモリ容量に:
NVIDIA、メモリ144TBのAI用スパコン「NVIDIA DGX GH200」を発表
NVIDIAは新しいクラスの大規模メモリを搭載したAI用スーパーコンピュータ「NVIDIA DGX GH200」を発表した。(2023/6/2)
Microsoft、生成系AI支援のVMをAzureでプレビュー開始 NVIDIA H100搭載
MicrosoftはNVIDIAのH100を8基搭載する仮想マシン(VM)「Azure ND H100 v5」の提供をプレビューとして開始した。大規模で複雑な生成系AIモデルのトレーニング向けだ。「Azureは大規模な変革型AIワークロードを開発、実行するための場だ」とスコット・ガスリー氏。(2023/3/14)
Metaが手掛けるスパコン開発【第2回】
Meta(旧Facebook)の自前スパコン「RSC」は何のハードを使っているのか?
Meta Platformsが開発したスーパーコンピュータ「AI Research SuperCluster」(RSC)は、同社のこれまでのシステムとどう違うのか。どのようなハードウェアで構成されているのか。(2022/5/2)
「富岳」に搭載のCPUを活用:
富士通、36量子ビット量子シミュレーターを開発
富士通は、36量子ビットの量子回路を扱うことができる、並列分散型の「量子コンピュータシミュレーター」を開発した。スーパーコンピュータ「富岳」にも搭載されているCPU「A64FX」を活用するなどして、「世界最速」を実現した。(2022/3/31)
2022年第3四半期に提供開始:
NVIDIAがデータセンター向けGPU「NVIDIA H100」を発表 新アーキテクチャ「Hopper」を採用
NVIDIAが、新アーキテクチャのデータセンター向けGPUを発表した。現行のAmpereアーキテクチャから演算能力やデータ点速度を引き上げた他、別売の専用ハードウェア(ラック)を用意することで最大256基のGPUをより高速に連結できる仕組みも用意した。(2022/3/23)
光伝送技術を知る(19) 光トランシーバー徹底解説(13):
光トランシーバーのForm Factorの新動向(8) 〜CPO/NPOと新しいデータセンター
前回の記事でお問い合わせを多くいただいたのが、新しい規格と紹介したNPO(Near Package Optics)と、CPO(Co-packaged Optics)が適用されると想定した新しい適用システムとして紹介したDisaggregated Systemに関してであった。今回はそれを少し詳しく触れてForm Factorの締めくくりとしたい。(2022/1/27)
Meta(旧Facebook)、メタバース構築に向けてNVIDIAと共同で高速AIスパコン構築中
Meta(旧Facebook)は「AI Research SuperCluster(RSC)」を発表した。NVIDIAのGPUシステムを採用しており、2022年半ばに完成の見込み。有害コンテンツの特定に役立ち、メタバース構築を支える。(2022/1/25)
HPCやビッグデータアプリに特化:
Xilinx、アクセラレーター「Alveo U55C」を発表
Xilinxは、HPCやビッグデータワークロードの用途で、優れたワット当たりの性能を可能にするアクセラレーターカード「Alveo U55C」を発表した。同時に発表したAPI駆動型クラスタリングソリューションを活用することで、FPGAの大規模運用が容易に可能となる。(2021/11/18)
製造業DXに向けたITインフラ革新のヒント - 第1回:
PR:重要性が増すCAE解析業務を効率化するには? HPCを活用するという選択肢
複雑化が進む製品開発において、CAEを活用した解析業務の果たす役割はますます大きくなっている。CAEの利用頻度が上がるだけでなく、解析処理のさらなる高速化や大規模モデルへの対応、よりメッシュ数の多い高精細な解析など、その要求も高まっていくことが予想される。また、ニューノーマル時代に向けてリモートワークに対応した環境整備も求められる。果たして、現在の解析環境のままで業務のさらなる効率化・高度化を実現できるだろうか。あらためて、HPCという選択肢について考えたい。(2021/10/5)
膨大なデータ処理を変える技術【前編】
GPUのデータ処理を高速化 「GPUDirect Storage」はなぜ必要なのか?
GPUとストレージが直接データをやりとりできるNVIDIAの「GPUDirect Storage」が一般に利用可能になった。まずはどのような仕組みなのか、ざっくりと理解しておこう。(2021/8/24)
製造ITニュース:
NVIDIAの「英国最速」AIスーパーコンピュータが正式稼働
NVIDIAは2021年7月6日(現地時間)、「英国で最速」(同社)のスーパーコンピュータ「Cambridge-1」が正式稼働を開始したことを発表した。AIを活用したバイオテクノロジーや医療分野での研究活動を支援する。(2021/7/13)
AI時代を支えるNVIDIA【中編】
NVIDIAがHPC市場に投入するDPU「BlueField」の役割 SmartNICとは違うのか?
GPUベンダーとしての確固たる地位を築いてきたNVIDIAが、AI技術分野での存在感を高めている。同社がAI処理などを担うサーバ向けの新たなアクセラレータとして提供するのが「DPU」だ。(2021/7/29)
NVIDIAのスパコン「Cambridge-1」、英国で正式デビュー
NVIDIAがスーパーコンピュータ「Cambrdige-1」を正式発表した。ロンドン近郊に構築したこのスパコンは「英国で最も強力なスパコン」とファンCEO。(2021/7/7)
研究者がスパコンに求めた3つの要件を満たす:
PR:東大物性研の第6世代スパコンシステム「Ohtaka」にDell EMC PowerEdgeサーバが選ばれた理由とは
東京大学附置の全国共同利用研究所として設立された東京大学物性研究所は、1995年以降スーパーコンピュータシステムの全国共同利用事業を運営している。5年ごとにシステムを更新していく中、2020年、第6世代スーパーコンピュータシステム「Ohtaka」に、デル・テクノロジーズの「Dell EMC PowerEdgeサーバ」を採用した。その概要や選定理由などについて、同研究所 物質設計評価施設・設計部 尾崎研究室の福田将大氏にお話を伺った。(2021/6/22)
読み取り性能は前モデルの2倍 IBMがハイブリッドクラウド向けストレージを発表
IBMは、コンテナネイティブなソフトウェアデファインドストレージソリューション「IBM Spectrum Fusion」と「IBM Elastic Storage System」ファミリーの2機種を発表した。ハイブリッドクラウド環境での利用に向けて容易なデータ管理を実現する。(2021/4/30)
日本ヒューレット・パッカード合同会社提供ホワイトペーパー
TOYO TIREの商品開発を変えたHPCシステム、高性能プロセッサ搭載サーバの実力は
自動車タイヤ業界でいち早くスーパーコンピュータを導入したTOYO TIREは、新商品開発を支えるべく導入した最新のHPCシステムで、性能値から設計を導き出す新たな挑戦を行った。それを可能にした、高性能プロセッサ搭載サーバの実力とは?(2021/8/2)
「NVIDIA Clara」プラットフォーム:
COVID-19対策貢献も、NVIDIAがヘルスケアAIを加速
NVIDIAの日本法人エヌビディアは2020年11月24日、「ヘルスケアAIの社会実装を加速させるNVIDIA Clara」プレスブリーフィングをオンラインで開催。同社のAIを活用したヘルスケアプラットフォーム「NVIDIA Clara」の概要や共同研究の概要などについて説明した。(2020/11/26)
CAEニュース:
クラウド版CAE環境の基盤に「Microsoft Azure」を採用
サイバネットシステムは、CAEソフトウェアによるシミュレーションを高速実行するためのクラウドコンピューティング環境「サイバネットCAEクラウド」の基盤として「Microsoft Azure」を採用し、稼働に向けた開発を開始した。(2020/10/16)
Arm買収は理想的な選択肢なのか:
NVIDIAがデータセンター売上高で過去最高に
NVIDIAは2020年8月、2021会計年度第2四半期(2020年4〜6月)の業績発表を行い、データセンター部門の売上高が過去最高を記録したことを明らかにした。Financial Timesは、NVIDIAを新しい“半導体チップの王”として称賛している。(2020/8/28)
光伝送技術を知る(11)光トランシーバー徹底解説(5):
光トランシーバーのForm Factor規格(その3)〜800G、そしてその先へ
光トランシーバーのForm Factor規格を紹介する第3回。今回は、800G光トランシーバーなどについてまとめる。(2020/6/29)
発表から約1年:
NVIDIAのMellanox買収、中国の承認取得で完了間近
NVIDIAは、データセンター向けインターコネクト企業であるイスラエルのMellanox Technologies(以下、Mellanox)を69億米ドルで買収する計画に対して、中国当局の承認を得たことを発表した。中国当局の承認の獲得は、この取引における最後のハードルとなっていた。(2020/4/22)
学習リソースや業界ニュース:
2020年1月版:AI/機械学習/データサイエンス関連ニュースまとめ
Microsoftの「R」コミュニティー向けブログサイトが、AIや機械学習、データサイエンスなどに関する2020年1月のニュースのまとめを掲載した。(2020/2/5)
「NVMe」が変えるストレージ市場【前編】
NVMeストレージが売れると「SATA接続型SSD」が売れなくなると予想できる理由
パフォーマンスや価格優位性が増し、利用が広がりつつある「NVMeストレージ」。その普及の影響は、HDDからストレージ市場の主導権を奪った従来型SSDにも及んでいるという。それはどういうことなのか。(2020/2/3)
“最高”のデータベース環境を提供するために:
PR:最高レベルの性能、可用性、セキュリティ、管理性、操作性を提供し続ける「Oracle Exadata」と「Oracle Database」――それぞれの進化のポイント
日本オラクルは2019年9月に発表されたばかりの最新のOracle Exadata「Exadata X8M」と、Oracle Databaseの次期バージョン「Oracle Database 20c」における“進化のポイント”を詳しく紹介した。(2019/11/26)
スパコンなどの用途にも:
Armサーバ向けのレファレンスデザイン、NVIDIAが発表
NVIDIAは2019年11月18日(米国時間)、GPUアクセラレーションArmベースサーバを構築するためのレファレンスデザインプラットフォームを発表した。「Supercomputing 2019」で発表されたもので、NVIDIAはこの他に2件の発表も行っている。(2019/11/21)
ベンチマークで世界記録を更新:
PR:AMDの新サーバCPU「第2世代EPYC」の凄さとは、企業はどこまで生かせるか
AMDの新サーバCPU、「第2世代EPYC(エピック)」が、ユーザーからの熱い注目を集めている。CPU性能、コア密度、I/O性能、価格性能比など、分かりやすいメリットをもたらすからだ。だが、新CPUの恩恵をどこまで享受できるかどうかは、「何に載せるか」に大きく依存するという。具体的にはどういうことなのだろうか。日本AMDの中村正澄氏とDell Technologiesの岡野家和氏に話を聞いた。(2019/10/10)
活発化する「AI×HPC」市場【後編】
ムーアの法則はもう限界? HPC進化の鍵は「GPU」か「FPGA」か
AIシステムの処理に必要な性能を実現するために、HPC分野の進化は続いてきた。だが技術進化にも限界がある。「ムーアの法則」が廃れつつあることが意味するものとは。(2019/9/6)