ニュース

超弩級! 40万コア/1.2兆トランジスタ/46,225平方mmの深層学習用チップ

WSE

 スタートアップ企業のCerebrasは19日(米国時間)、1.2兆トランジスタを集積した深層学習用の超巨大チップ「Wafer-Scale Engine(WSE)」を発表した。

 WSEは40万個のAI処理に特化したコアを備え、1.2兆トランジスタを集積し、46,225平方mmというダイサイズを達成したという、まさに名前のとおりウェハスケールのものとなっている。

 18GBものSRAMをオンチップに備え、バンド幅は100Pbps(9PB/s、ペタバイト/秒)に達する。これは競合と比較して3,000倍の容量と1万倍のバンド幅だとしている。

 ちなみに過去最大のGPUは「GV100」で、ダイサイズは815平方mm、トランジスタ数は210億。ダイサイズで比べた場合、WSEのほうが56倍も大きい計算になる。

 開発にはAMDが買収したSeaMicroの投資家であるAndrew Feldman氏が携わり、歩留まり、電力供給、クロスレチクルの接続製、パッケージングなど、さまざまな問題を乗り越えて実現した。

 Cerebrasによれば、ビッグチップは情報をより速く処理し、より短時間で回答が得られるため、WSEは膨大なデータを処理する研究者に有用としている。ソフトウェアスタックとしてはTensorFlow、PyTorchなどをサポートするとしている。

GV100(写真右下)と比較して56倍ものダイ面積を誇る