ソニーは、ディープラーニングの統合開発環境「Neural Network Console Cloud」のアップデートとして、産総研のAI処理向けスパコン「ABCI」との連携を発表。ニューラルネットワークの学習・評価に用いる計算リソースとして、ABCIのGPUを選択できるようになった。
この記事は会員限定です。会員登録すると全てご覧いただけます。
ソニーとソニーネットワークコミュニケーションズは2019年4月8日、ディープラーニング(深層学習)の統合開発環境「コンソールソフトウェア:Neural Network Console」のクラウドサービスで、産業技術総合研究所(産総研)のスーパーコンピュータシステム「AI橋渡しクラウド(AI Bridging Cloud Infrastructure:ABCI)」との連携による新サービスの提供を開始した。
ソニーは2017年6月に、ディープラーニング開発用のコアライブラリ「Neural Network Libraries」をオープンソース化し、同年8月にNeural Network Consoleの無償提供を開始。2018年5月からは、マルチGPUによる高速学習が可能なクラウド版「Neural Network Console Cloud」の提供を開始した。
Neural Network Consoleは、GUIベースの直観的な操作でニューラルネットワークの設計、学習、評価ができる統合開発環境。マウス操作とパラメーターの調整だけで、ディープラーニングプログラムを生成できる。クラウド版では、CPU、マルチGPU、最大1TBまでのワークスペース、無制限のプロジェクト数などのディープラーニング実行環境が提供されている。
ABCIは、産総研が構築、運用する世界最大規模の人工知能(AI)処理向け計算インフラストラクチャ。国内における産学官共同AI研究開発のオープンプラットフォームとして、2018年8月に本格運用を開始した。ABCIの中核となる高性能計算システムは、AI処理に適した半精度演算性能が550PFLOPS(ペタフロップス)、倍精度演算性能が37PFLOPSで、実運用される計算システムとしては国内最高性能を記録。NVIDIAのGPU「NVIDIA TESLA V100」をノード当たり4基、計4352基搭載し、この性能を実現している。
Copyright © ITmedia, Inc. All Rights Reserved.