はじめに
Twitterに流れてきた
によると、
So far, NVIDIA and OpenAI have collaborated on ChatGPT whose latest GPT-4 model utilizes several thousands of AI GPUs from the chip giant. It is reported that NVIDIA has supplied around 20,000 of its brand-new AI GPUs to OpenAI which will further be expanded in the coming months. But that is just the tip of the iceberg.
とあります。
これって、H100 x 20,000 ということになるんですよね。
H100 x 20,000 ?
H100 が $30,000 と考えると、20,000 台ということは、$30,000 x 20,000 = $600,000,000 = $600M
Supercomputer の Aurora) の費用が $500M ということでした。
Auroraの最終的な構成では、
です。
Intel Data Center GPU Maxの数の 1/3 ですが、性能を考えると、そんなものでしょう!
おわりに
H100 x 20,000 だけで、$600M ですが、Node に H100を8台搭載するということは、20,000 / 8 = 2500 ノードになります。各ノードにCPUが2個載っているのなら、5000 x CPU になりますね。。。CPUとメモリ等で $30,000 - $40,000 とすると、$150M - $200M になります。
となると、
- $600M + ($150M - $200M) = $750M - $800M
ざっくり、1000億円は超えますね。。。
7月に書いたブログ
と一致しますね。