イベントレポート
Intel、シリコンフォトニックスの光トランシーバー
~2017年に次世代Xeon PhiとなるKnights Millを投入へ
2016年8月18日 09:45
Intelは、8月16日~18日(現地時間、日本時間8月17日~19日)の3日間にわたり、Intel Developer Forumを開催している。2日目となる8月17日には、データセンターや5Gに関する基調講演が行なわれた。
現地時間の午前9時45分から行なわれたIntel 上席副社長 兼 データセンター事業部 事業本部長 ダイアン・ブライアント氏の講演では、同社のデータセンターに関する戦略や新製品が公開された。この中でブライアント氏は、Intelがこれまで業界各社と開発を続けてきてより高効率なサーバラックとなるラックスケールアーキテクチャのv1を今年(2016年)末までに、またサーバー間やデータセンター間を接続するインターコネクトとして利用できるシリコンフォトニクス(光を媒介としてデータを転送できる半導体レーザーとその回路)を6月よりOEMメーカーに出荷開始しており、100Gb/sというこれまでの方式よりも広帯域を実現するのが特徴となる。
また、ブライアント氏は、同社が6月に発表したXeon Phi(開発コードネーム:Knights Landing)の後継として、2017年にKnights Millと呼ばれる次世代製品を投入する計画を明らかにした。
100Gb/sで通信できるHPC/サーバー向けインターコネクト“シリコンフォトニクス”
基調講演ではまず、同社が最も力を入れている事業として、クラウドサーバーの分野について取り上げた。ブライアント氏は「クラウドはITで最も重要なインフラになりつつある。ユーザーがクライアントデバイスを使うために、それに見合ったクラウドのインフラを用意する必要がある。パブリッククラウドだけでなく、プライベートクラウドも伸びており、IT全体で10%から20%程度へと増えており、年率20%の割合で増えている。そうしたプライベートクラウド、パブリッククラウド、そして2つをカバーするハイブリッドクラウドなどが今後も成長していくだろう。このようなクラウドのニーズに対応するには、データセンターの効率を上げていく必要がある」と述べ、クラウドサーバーの効率化の必要を訴えた。
その方法の1つとして、Intelが数年前から業界各社と取り組んでいる、サーバーラック自体の構造を見直すことで、よりサーバーの利用効率などを引き上げることができる“ラックスケールアーキテクチャ”に関して、最初のバージョン(v1)が、今年の末までに、Dell、Ericsson、Quanta、inspurなどから出荷される予定であることを明らかにした。さらにブライアント氏は「2017年にはv2.0に取り組む予定で、SSDやFPGAなどに対応する」と述べ、今後も継続的にラックスケールアーキテクチャの改善を行なっていくと説明した。
また、そうしたサーバー間、さらにはデータセンター間を接続するインターコネクトの重要性が増していると説明し、1つのソリューションとして、Intelが開発してきたシリコンフォトニクスを6月にOEMメーカーに対して出荷開始したことを明らかにした。
シリコンフォトニクスとは、光を媒介にしてデータの送受信を行なう方式で、光ケーブルに統合回路と半導体レーザーを組み合わせてデータの送受信を行なう。同氏によれば、現行製品ではラック内の列の接続で100Gb/s、近い将来にはラックとラック間の接続に400Gb/s、次世代製品ではサーバー間の接続で100倍の帯域密度を実現した製品が可能になると説明した。
シリコンフォトニックスの製品として2つのSKUを発表している。1つが「100G PSM4 QSFP28 Optical Transceiver」で、最大で2kmで100Gb/sの通信が可能になっている。もう1つが「100G CWDM4 QSFP28 Optical Transceiver」で、こちらは最大で500m、2kmないしは10kmで100Gb/sの通信が可能になる。現在サーバーなどで一般的に使われている10Gb Ethernetなどに比べて通信帯域幅が10倍になり、かつ距離も大きく伸びるのが特徴となる。
ブライアント氏は「Intelのシリコンフォトニクスのアドバンテージは他社が実現できていないシリコンレーザーを唯一実現できていることだ」と述べ、他社がすぐに追いつくことは難しいとアピールした。
次世代Xeon Phi「Knights Mill」は2017年に投入予定
また、ブライアント氏は講演の後半でAI(人工知能)の話題に力を入れ、同社が6月に発表したXeon Phi(開発コードネーム:Knights Landing)がディープラーニングのトレーニング用に、そしてXeonプロセッサがマシンラーニングのスコアリング用に適していると強調した。
さらに、複数を並列に接続してスケールアウトできるXeon Phiでは、128個を並べて処理させることで、1つの場合に比べて最大52.2倍でAlexNetを利用した学習を高速化できるなどのメリットがあるとアピールした。また、先週Intelが買収することを発表したNervana Systemsについて紹介し、Nervana Systemsが開発してきたディープラーニング用のソフトウェアを活用することで、ディープラーニングの学習などがIAシステム上でよりよくできるようになるとした。
顧客の事例として、中国の検索ベンダーBaiduが紹介され、同社のディープラーニングを活用した音声認識ソフトウェア「DeepSpeech」などが紹介された。なお、Baiduのディープラーニングの事例は、NVIDIAが2015年の春に開催したGTC15でも紹介されており、NVIDIAが先行するディープラーニング市場に食い込みたいと考えているIntelとしてはいいアピールになったと言えるだろう。
ブライアント氏は、今後もIA環境におけるディープラーニング、マシンラーニングのソリューションを拡張させていくと述べ、Caffe、theanoなどの対応ライブラリを増やしたり、Intelの開発ツールでの対応を増やしたり、大学との共同研究などを加速していくと説明した。
そして、最後に2017年に投入する予定の次世代Xeon Phiについて触れ、「次世代の製品はKnights Millとなる。Knights Millはよりアナリスティックスやディープラーニングの性能に焦点を当てた製品となり、特にディープラーニング向けの重要な拡張を入れる予定だ」と述べ、次世代のXeon PhiとなるKnights Millでは特にディープラーニング向けの機能拡張を行ない、よりディープラーニングに適したプロセッサにする予定であると説明した。