ニュース

AWS、NVIDIA H200を搭載したEC2インスタンス。LLMの開発に好適

NVIDIA H200

 Amazon Web Services(AWS)は27日(米国時間)、AIやマシンラーニング、グラフィックス、HPC向けの新たなAmazon EC2インスタンスとして、GPUがNVIDIA H200の「P5e」、NVIDIA L40Sの「G6e」、NVIDIA L4の「G6」の3種類を発表した。2024年の提供を予定している。

 P5eは、NVIDIA H100より容量が1.7倍大きく、処理速度が1.4倍速い141GB HBM3e GPUメモリを備えたNVIDIA H200を搭載する。同メモリと、AWS Nitro Systemの最大3,200GbpsのEFAネットワーキングにより、大規模言語モデル(LLM)の開発やトレーニング、推論に好適とする。

 G6eはNVIDIA L40Sを搭載し、公開されているLLMのトレーニングおよび推論、小規模言語モデルへのサポート、デジタルツインアプリケーションに好適とする。

 G6はNVIDIA L4 GPUを搭載し、自然言語処理、言語翻訳、動画/画像分析、音声認識、パーソナライゼーションなどのMLモデルの利用に好適とし、低コストかつエネルギー効率の高いソリューションを謳っている。