Vengineerの妄想(準備期間)

人生は短いけど、長いです。人生を楽しみましょう!

20,000台のNVIDIA H100とは?

はじめに

Twitterに流れてきた

wccftech.com

によると、

So far, NVIDIA and OpenAI have collaborated on ChatGPT whose latest GPT-4 model utilizes several thousands of AI GPUs from the chip giant. It is reported that NVIDIA has supplied around 20,000 of its brand-new AI GPUs to OpenAI which will further be expanded in the coming months. But that is just the tip of the iceberg.

とあります。

これって、H100 x 20,000 ということになるんですよね。

H100 x 20,000 ?

H100 が $30,000 と考えると、20,000 台ということは、$30,000 x 20,000 = $600,000,000 = $600M

Supercomputer の Aurora) の費用が $500M ということでした。

Auroraの最終的な構成では、

です。

Intel Data Center GPU Maxの数の 1/3 ですが、性能を考えると、そんなものでしょう!

おわりに

H100 x 20,000 だけで、$600M ですが、Node に H100を8台搭載するということは、20,000 / 8 = 2500 ノードになります。各ノードにCPUが2個載っているのなら、5000 x CPU になりますね。。。CPUとメモリ等で $30,000 - $40,000 とすると、$150M - $200M になります。

となると、

  • $600M + ($150M - $200M) = $750M - $800M

ざっくり、1000億円は超えますね。。。

7月に書いたブログ

vengineer.hatenablog.com

と一致しますね。