はじめに
6月12日に下記のようなブログを書きました。
この時は、既に一強になっているNVIDIAのGPGPU(H100とかGH200とか)について書きました。
今回は、Cloud Service を行っている、Google、AWS、Meta、Microsoft が AI Chip への投資を強化していることについて探ってみてみます。
Microsoft も Maia 100 を投入!
Microsoft が AI Chip として、Maia 100 を投入しました。2024年前半にAzure Data Centerに搭載されるということです。
MicrosoftがMaia 100を発表したことにより、Cloud Service でビジネスをやっている
が 独自開発のAI Chipを自社のサービスに導入する(した)ことになります。
各Cloud Serviceで自社開発のAI Chipを利用できるだけでなく、NVIDIAのH100とかも当然サービスとして提供しています。
Xの下記の投稿(説明のために引用します)では、
Microsoft has budgeted a $50B spend on chips for the next year. Google is building 2 million TPU 5 ASICs for $12,500 each = $25B. Other data center spend takes it above $30B.
とあります。$50B とか $25B とか $30B とか、金額が違います。。。
Even more: Microsoft has budgeted a $50B spend on chips for the next year.
— Steve Jurvetson (@FutureJurvetson) 2023年11月24日
Google is building 2 million TPU 5 ASICs for $12,500 each = $25B. Other data center spend takes it above $30B.
スタートアップは?
GraphcoreがMicrosoftのAzureに採用されなくなり、ヤバくなったように、大口顧客に導入してもらわないと、大量に購入してもらえません。 ハードウェア(もの)は大量に使ってもらえないと、売り上げも上がらないし利益を出ないので、Cloud Serviceの会社がAI Chipを開発するとそれに競合するスタートアップのチップを自社のServiceとして利用することはなくなります。
(MicrosoftがCerebras Systemsを利用したサービスを提供するというようなことをやっているようですが => ここ)
おわりに
Microsoft が Maia 100 を発表し、2024年前半にAzure Data Centerに導入すると発表したことにより、大手Cloud ServiceにスタートアップのAI Chipが採用される目は無くなってしまいました。
となると、スタートアップが独自にCloud Serviceを提供することになりますが、コスパで大手Cloud Serviceに勝つためには値段を下げるしかありません。そうなりと、利益が減り、次への投資ができないので、システムの更新ができなくなり、使われなくなるという感じになりそうです。
2016年頃から始まった AI Cloud学習チップバブルは、終焉を迎えると思います。結果は早くて来年(2024年)には何かが起こると思います。
P.S TSMC N3でのチップ開発が出来ても、売れないと作る意味がないですからね。。。
また、LinkedIn の下記の記事によると、
Working together with our MX alliance partners —- AMD, Arm, Intel, Meta, Microsoft, NVIDIA, and Qualcomm —- we have developed the industry’s first set of next-gen 6- and 4-bit data format standards to advance the future of AI.
のようです。。
Eric Chung on LinkedIn: Open Compute Project | 18 comments
つまり、
以外は、上記の標準化には関わっていないので、将来的には生き残れないのでは?と。。。