Amazon Web Services(AWS)でGPUインスタンスが最初に登場したのは10年前であり、当時はNVIDIA M2050が採用されていた。当時、CUDAベースのアプリケーションがフォーカスしていたのは科学技術シミュレーションの加速で、AIやディープラーニングへの貢献はまだ先のことだった。
NVIDIAは今週、同社によるプレスリリースのなかで、A100 TensorコアGPUを搭載する新しいP4dインスタンスの一般提供を公表した。この次世代インスタンスは、機械学習モデルのトレーニング時間を、デフォルトのFP32精度の場合と比較し、FP16精度で最大3倍、TF32精度で最大6倍短縮するという。また、A100 GPUはMLPerf推論ベンチマークで新記録を樹立しており、CPUと比較して最大237倍高速な性能を示すなど、高度に優れた推論性能も提供する。
ユーザーはAWS UltraClustersにより、Amazon FSxを利用して一度に4,000基を超えるGPUにオンデマンドかつスケーラブルにアクセスすることができ、ハイパフォーマンスコンピューティングへの利用も実現する。現在、このP4dインスタンスは米国の一部地域で利用可能であり、順次エリアが拡大される予定となっている。