ニュース

伝説のCPUアーキテクトJim Keller氏が示すAIの未来

Jim Keller氏

 AIプロセッサを開発しているスタートアップ企業のTenstorrentは20日、都内で記者向けのラウンドテーブルを開催し、RISC-V関連のカンファレンス「RISC-V Day Tokyo 2023 Summer」のために来日した同社CEOのJim Keller氏が、各誌のインタビューに答えた。

Jim Keller氏がスタートアップのTenstorrentに入るまで

 本誌の読者には釈迦に説法だと思うが、Jim Keller氏は半導体業界ではレジェンド級の人物だ。下記は一例だが、Keller氏が設計したプロセッサはおそらく誰もが一度は手にしていることであろう。

  • Digital Equipment CorporationでVAX8800、Alpha 21164/21264を開発
  • AMDでAthlonの開発を支援(Athlonのバスは21264のEV6のライセンス)。Athlon 64(およびOpteron)を開発
  • SiByteでネットワークインターフェイス向けMIPSプロセッサを設計
  • P.A.Semiでモバイルプロセッサを開発
  • 2008年にP.A.SemiはAppleに買収され、A4/A5/A6/A7を設計
  • 2012年にZen(Ryzenのマイクロアーキテクチャ)を開発

 こうして数々のプロセッサを開発した同氏だが、その後2016年にTesla、2018年にIntelに移籍し、それぞれAI関連のシステムやSoC開発を率いてきた。そして2020年に今のTenstorrentに入社、社長兼CTO兼取締役に就任。2023年1月に当時のCEO(Ljubisa Bajic氏)と役割を入れ替え、現在に至っている。

 Keller氏が入社したTenstorrentは、2016年に“立ち上がったばかり”とも言えるスタートアップ企業。なぜ、大企業ではなく、Tenstorrentへの入社を決めたかと問われたKeller氏は「次世代を担うAI製品の開発に関心を持っていたから」と率直に答えた。

 ちなみに創業者のLjubisa Bajic氏と役割を入れ替えた背景には、「市場参入にはソフトウェアやハードウェアに関する大規模なチームの構築や、顧客への納品やサポートを行なわなければならないのだが、彼はこういった役割には興味がなかったため」という。

Jim Keller氏が率いるTenstorrentの役員メンバー。

なぜ「(GP)GPU」ではなく「AIプロセッサ」なのか

 インタビューでは「GPUとAIプロセッサ(あるいはAIアクセラレータ)との違いは?」についての質問が飛び交った。今“AI”と言えばNVIDIAやAMDが開発しているGPUの方がもてはやされているのだが、AI処理に特化して設計したプロセッサの方が高い電力効率を達成できるとKeller氏は指摘する。

 「GPUは多数の演算器が集まっており、各々の演算器がピクセル1つ1つを処理する。つまり大規模な並列処理を行なうのに適した構造だ。一方AIのプログラムは、1つの演算器の処理の結果がほかの演算器に影響を及ぼす“フロー”になっている。これは人間の脳の処理に似ている。AIのプログラムがやっていることは、GPUがやれることとは異なる。AIプロセッサの方がよりAIプログラムの実行に適した構造になっている。

 また、NVIDIAやAMDなどのGPUは既に成功を収めているのだが、今、GPUでAI処理を行なうには電力面やコストの面からして非効率的だ。我々は、AI処理は本来そんなにコストが高くあるべきではないと考えており、AIプログラムをもっとも効率的な形で実行できるプロセッサを設計している。

 たとえばプロセッサのパッケージもコンシューマ向けGPUと同じだし、DRAMも同じGDDR6を利用できる。チップ間接続にはEthernetを用いており、高価なライセンス費用が必要なバックプレーンは必要ない。また、将来的にRISC-Vプロセッサも統合することで、システムからIntelやAMD、Armといった高価なライセンスが必要なプロセッサをシステムから省ける。より低コストで効率的だ」という。

 一方で、NVIDIAのGPUにはCUDAのような仕組みがあるからこそ成功しているのではないか、という指摘に対しKeller氏は、「AIに関する多くの開発者はPyTorchやJavaといった高級言語からプログラムを実行するため、我々が現在提供しているコンパイラ“Buda”で対応できると考えている。既にデモも動作している段階だ。一方、データサイエンティストはCUDAのように低レベルプログラミングを必要としている開発者にはBuda M(Mはメタルの意味)を提供し対応していきたい」とした。

RISC-Vの未来

 今回Keller氏が来日した理由はRISC-V Day Tokyo 2023 Summerイベントのためなのだが、RISC-Vの未来について同氏はどう考えているだろうか。

Tenstorrent RISC-Vプロセッサのロードマップ

 「RISC-Vに関して言えることはLinuxと同じだ。今、LinuxをベースとしたAndroidデバイスが溢れているように、RISC-Vもやがてそうなっていくだろう。RISC-Vの利点は、Armのような高額ライセンス費が不要で、開発した企業はオーナーシップが持てる点にある。x86のようなレガシー資産もなければ、エコシステムもないところだ。

 今、いろんな国でいろんなCPUを開発しようとしているが、そういった国にとってRISC-Vは最有力候補だし、エンドツーエンドで同じアーキテクチャが必要ならそれもまたオープンソースのRISC-Vが活きる。完全な“ウイニングアーキテクチャ”で、オープンソースに行くと戻れなくなるだろう。

 既にEUや日本など多くの地域で、RISC-Vアーキテクチャのコンピュータを指定しており、多様な人々がRISC-Vの開発に携わっている。また、日本では特に自動車分野でRISC-Vからの需要が高まっている」と述べた。

同社のRISC-Vプロセッサの性能
RISC-Vの特徴

 ちなみに同社が現在提供しているのは、AIプロセッサとRISC-VプロセッサともにあくまでもIP設計レベル、もしくはチップレベルであり、エンドユーザーに届く最終製品ではない(つまりDellやHPなどが製品を作っていない)。これが普及の阻害になるのでは? という質問に対しKeller氏は「私も過去にOpteronで同じ経験をしている。AMDはOpteronを作ったが、(エンドユーザーである)大企業はすぐに飛びついたわけではなかった。しかしその後どうなったかは、既に証明されている」。

AIは今後2年でまた5つのイノベーションが生まれる

 生成AIはこの2年間で大きな進化を遂げてきたのだが、AIプロセッサと生成AIは今後どうなっていくのだろうか。

 「生成AIに関してのイノベーションは、まずは新しい大規模言語モデル(LLM)からだろう。具体的には、より大きなコンテキストを持ちながらより、より小さなメモリフットプリントを実現できるところにあると考えている。

 過去2年間に5回ほどAIのイノベーションがあったわけだが、それらのAIプログラムは、すべて我々のハードウェアで走らせられることが分かっている。今後2年間も5回ほどイノベーションが起きるだろう。我々のコンパイラも成熟してきており、対応できると考えている。

 もちろん、そういったイノベーションはNVIDIAのGPUから始まるかもしれないが、我々も十分に自信を持っている。我々が目指しているのはNVIDIAのようなGPUではなく、GoogleのTPUのようなものだ。

 今AIプロセッサは“AIアクセラレータ”と呼ばれている。これは外部から知覚して、プランニング、思考へと発展していく過程を“アクセラレート”しているからだ。しかし我々の脳は逆で、思考から行動に移すことができる。これが正しいAIの未来像だ。つまりAIプログラム同士が通信する世界、人間とAIが会話する世界である。これが実現して初めてAIアクセラレータはAIプロセッサ、あるいはもっと違う名前で呼ばれるようになるだろう」。

CPUとAIプロセッサは統合へ

 なお、ロードマップについて解説され。現在はAIやRISC-Vプロセッサをチップレットの形で提供し、顧客がニーズに合わせてピースを組み合わせられるような仕組みを提供しているのだが、2024年にはRISC-VとAIプロセッサを1チップにした「Grendel」を投入する予定だという。

 プロセッサとAI処理を行なうプロセッサを1つの製品に収めて提供する形態は、NVIDIAの「DGX GH200」を台頭として流行となっているが、これは「AIプログラムを観察していくと、プログラムの一部処理がCPUで行なわれていることがあるため」だという。その際にAIプロセッサとCPUの通信が、(PCI ExpressやNVLinkといったバスよりも)より効率的に行なえる方が良いという判断からとのこと。

2024年に投入予定のGrendel

 また、Tenstorrentは5月末に、LG ElectronicsとスマートTV用のRISC-VおよびAIプロセッサの共同開発についてアナウンスしたのだが、CCOのDavid Bennett氏によれば「来月にも大企業とのコラボについて発表する予定」とし、ビジネスが順調に進んでいることをアピールした。

採用事例