[事例ニュース]

PFN、3機種めのディープラーニング用スパコンを2019年7月に稼働、合計で200ペタFLOPSに

2019年3月18日(月)日川 佳三(IT Leaders編集部)

Preferred Networks(PFN)は2019年3月18日、スーパーコンピュータ「MN-2(エム・エヌ・ツー)」を自社構築し、2019年7月に稼働させると発表した。計算資源は、既に稼働している「MN-1」(2017年9月稼働)、「MN-1b」(2018年7月稼働)と合算して約200ペタFLOPSとなる。2020年春には、PFNが独自開発するディープラーニングプロセッサ「MN-Core」を採用した「MN-3」を稼働させる。

 PFNは、ディープラーニングの研究開発に用いるスーパーコンピュータシステムとして、2017年9月にMN-1を稼働させた(関連記事Preferred Networks、ディープラーニング用に4.7PFLOPSのスーパーコンピュータを構築)。2018年7月には、MN-1の計算資源を拡張すべく、新機種のMN-1bを稼働させた(関連記事PFN、深層学習用のGPUスパコンを拡張、NVIDIA Tesla V100×512基を追加)。

 2019年7月には、新たなスーパーコンピュータとしてMN-2を稼働させる(表1)。CPUを5760コアと、NVIDIA V100 TensorコアGPUを1024基搭載する。理論上のピーク性能は、ディープラーニング(深層学習)で利用する混合精度浮動小数点演算において約128ペタFLOPSであり、MN-2だけでMN-1bの2倍以上のピーク性能となる。

表1:ディープラーニング用途のスーパーコンピュータとして、MN-1、MN-1b、MN-2を追加してきた(出典:Preferred Networks)表1:ディープラーニング用途のスーパーコンピュータとして、MN-1、MN-1b、MN-2を追加してきた(出典:Preferred Networks)
拡大画像表示

 MN-2は、国立研究開発法人海洋研究開発機構横浜研究所シミュレータ棟内に構築する(写真1)。2020年春に稼働を予定するMN-3と、同一サイト内で連携稼動する。現在稼働中のMN-1およびMN-1bとも、閉域網で接続する。MN-2上では、オープンソースの深層学習フレームワーク「Chainer」を活用し、交通システム、製造業、ヘルスケア、スポーツ、クリエイティブ分野などの研究開発に利用する。

写真1:MN-2の完成イメージ(出典:Preferred Networks)写真1:MN-2の完成イメージ(出典:Preferred Networks)
拡大画像表示

 GPUノード間のインターコネクトにはイーサネットを採用した。イーサネット上で低遅延・高スループットを実現するRoCE(RDMA over Converged Ethernet)v2に合わせて、1ノードあたり100ギガビットイーサネットを4本搭載した。同時に、総容量10ペタバイトを超えるソフトウェア定義型ストレージを独自に構築し、機械学習時のデータアクセスを最適化している。

関連キーワード

ディープラーニング / GPGPU / スーパーコンピュータ / Preferred Networks / HPC

関連記事

Special

-PR-

PFN、3機種めのディープラーニング用スパコンを2019年7月に稼働、合計で200ペタFLOPSにPreferred Networks(PFN)は2019年3月18日、スーパーコンピュータ「MN-2(エム・エヌ・ツー)」を自社構築し、2019年7月に稼働させると発表した。計算資源は、既に稼働している「MN-1」(2017年9月稼働)、「MN-1b」(2018年7月稼働)と合算して約200ペタFLOPSとなる。2020年春には、PFNが独自開発するディープラーニングプロセッサ「MN-Core」を採用した「MN-3」を稼働させる。

PAGE TOP