試作した深層学習アクセラレータによって13層のディープニューラルネットワーク(DNN)を構築し、手書き数字を認識させた結果の概要。左上(a)はディープニューラルネットワークの構成。右上(b)はニューラルネットワークの層数と推論誤差の関係を32bitの浮動小数点プロセッサによる深層学習と比較した結果。下(c)は、CPUとGPU、FPGAによる13層のDNN処理と試作チップ(深層学習アクセラレータ)による13層のDNN処理を比較した結果。北海道大学と東京工業大学、慶應義塾大学の共同研究チームが2017年のVLSIシンポジウムで発表した論文(論文番号C2-1)から

試作した深層学習アクセラレータによって13層のディープニューラルネットワーク(DNN)を構築し、手書き数字を認識させた結果の概要。左上(a)はディープニューラルネットワークの構成。右上(b)はニューラルネットワークの層数と推論誤差の関係を32bitの浮動小数点プロセッサによる深層学習と比較した結果。下(c)は、CPUとGPU、FPGAによる13層のDNN処理と試作チップ(深層学習アクセラレータ)による13層のDNN処理を比較した結果。北海道大学と東京工業大学、慶應義塾大学の共同研究チームが2017年のVLSIシンポジウムで発表した論文(論文番号C2-1)から