Vengineerの妄想

人生を妄想しています。

TSMC SoIC-mH って、なんだ?

はじめに

Xに Apple M5 Pro/M5 Max で使われている TSMC SoIC-mH なるものについて、Grok さんに聞いてみました。

TSMC SoIC-mHについて、詳しく教えて

TSMC SoIC-mH について、詳しく説明します。まずTSMCのSoIC技術全体を簡単に整理した上で、SoIC-mH(mH版)の特徴・利点・用途を解説します。情報はTSMC公式資料と信頼できるアナリスト(主にMing-Chi Kuo氏)のレポートに基づいています。

1. TSMC SoIC® とは(基礎知識)

TSMCが提供するSoIC(System on Integrated Chips) は、先進の3D IC積層技術(ヘテロジニアス・チップレット統合技術)です。従来の単一ダイのSoC(System on Chip)を、複数のチップレット(Known Good Die)に分割し、再び超高密度で積層・再統合して「1つのSoCのように機能するチップ」に仕上げる技術です。

  • 主な特徴:

    • 異なる機能・サイズ・プロセスノードのチップレットを混在可能(例: ロジック + メモリ + アナログなど)。
    • ハイブリッドボンディング(Cu-Cu直接接合)を使い、接続ピッチをsub-10μmまで微細化 → 極めて低い抵抗・インダクタンス・容量(RLC)、高帯域・低遅延・低消費電力を実現。
    • 積層方式: Chip on Wafer (CoW) と Wafer on Wafer (WoW) の両対応。
    • SoIC-X などのサブバリエーションもあり、WoWで薄型TSVを組み合わせた高性能版が存在。
  • 利点:

    • 従来SoCより小型・薄型・高性能。
    • CoWoS® や InFO などの後工程パッケージングと組み合わせ可能(「3Dx3D」ソリューション)。
    • クラウド・ネットワーク・エッジAIなど、高帯域・低遅延が求められる用途に最適。

公式には「SoIC®」として垂直積層(3D)を主眼に置いた技術として位置づけられています。

2. SoIC-mH とは(具体的なバリエーション)

SoIC-mH は SoICファミリーの2.5D向け特定実装(またはパッケージングフロー)で、mH = Molding Horizontal(モールディング・水平統合) を意味します。一部の報道では「Small Outline Integrated Circuit Molding-Horizontal」とも表記されます。

  • 基本構造:

    • CPU・GPUなどの機能を別々のダイ(チップレット)に分割し、水平方向(side-by-side)に配置
    • これをモールディング化合物で包み込み、1つのパッケージとして統合(2.5D構造)。
    • 接続には SoICのハイブリッドボンディングや高密度再配線層(RDL)を用いて、SoC並みの低遅延・高帯域を実現。
    • 一部報道では「垂直スタック要素も組み合わせ、回路層を追加」との記述もあり、純粋な水平配置+モールディングをベースに部分的に垂直接続を加えたハイブリッド構造と考えられます。
  • 従来SoICとの違い: | 項目 | 標準 SoIC(主に3D垂直積層) | SoIC-mH(2.5D Molding Horizontal) | |---------------|------------------------------|------------------------------------| | 主な配置 | 垂直積層(die on die) | 水平配置+モールディング | | 対象 | 高密度3Dヘテロジニアス | 大規模SoCのチップレット分割(CPU/GPU分離など) | | 利点の焦点 | 超微細接続・小型化 | 熱分散・歩留まり向上・柔軟性 | | パッケージ | より3D指向 | サーバーグレード2.5D |

SoIC-mHは「SoICの利点を活かしつつ、水平統合+モールディングで実用性を高めた」実装と言えます。

3. SoIC-mH の主な利点

  1. 熱性能の大幅向上
    熱源(CPUとGPU)を物理的に分離 → 熱密度が低下。フルパワーで長時間動作可能になり、サーマルスロットリングが遅れる(特に高負荷AI・サーバー用途で有効)。

  2. 製造歩留まり(yield)の向上
    大きな単一ダイを小さめのチップレットに分割するため、欠陥率が低下。全体の生産効率が向上し、コスト低減にも寄与。

  3. 性能・電力効率の改善
    ハイブリッドボンディングによる超低遅延接続で、従来のチップレット技術(例: Intel EMIBやAMDのもの)よりSoCに近い低レイテンシ・低消費電力を実現。Performance per Wattが向上。

  4. 設計柔軟性
    CPU/GPU/Neural Engineなどを独立して最適化可能。同じパッケージ内でコア数や構成を細かく変えやすい(AppleのMac構成柔軟化に寄与)。

4. 実際の採用例(Apple M5シリーズ)

2024〜2025年のアナリスト情報(特にMing-Chi Kuo氏)で最も注目されたのが、Apple M5 Pro / Max / Ultraへの適用です。 - ベースのM5は従来型SoCのまま。 - M5 Pro以上でSoIC-mHを採用 → CPUとGPUを別ダイに分割し、2.5Dパッケージで統合。 - プロセスノード: TSMC N3P(3nm強化版)と組み合わせ。 - 目的: 高性能MacBook Pro向けの持続性能向上 + AIサーバー(Private Cloud Compute)用途の熱管理・歩留まり改善。

これにより、従来の「1ダイSoC」では難しかった大規模高性能チップの量産性と冷却性が飛躍的に向上しています。

まとめ

  • SoIC = TSMCの主力3Dチップレット積層技術(垂直高密度接続)。
  • SoIC-mH = その水平モールディング版(2.5D) で、大規模SoCを効率よくチップレット化する実用的な進化形。
  • 最大の価値は「歩留まり・熱管理・性能効率のバランス」を取れる点で、特に高性能コンピューティング(PC・サーバー・AI)で今後さらに広がる技術です。

TSMC公式サイトではまだ「SoIC-mH」の詳細スペック(ピッチ・層数など)は公開されていませんが、アナリスト情報と公式SoIC資料を合わせると、上記の理解でほぼ一致します。将来的にTSMCの3DFabricページでさらに詳細が出る可能性が高いです。

もっと具体的なスペック(ボンドピッチや熱抵抗値など)や図解が必要でしたら、追加で教えてください!

Apple M5 Pro/M5 Max

Apple M5 Pro/M5 Max では、

  • CPU Die
  • GPU Die

の2種類を1つのパッケージ(SoIC-mH) にしているようです。

CPUの性能は同じで、GPUの性能を変えるというもの。

M4 Pro/M4 Maxまでは、それぞれ Die を開発してきましたが、M5 Pro/M5 Max では CPU Dieは共通でGPU Dieが別ということのようです。

これについては、いずれ、分解などの情報がでてきたら、ブログに残そうと思います。

おわりに

TSMCって、Foundry なんだけど、Package技術を色々開発しているんですね。。Appleを始めとするFablessがそれを使って機器を作り、売る。。って、感じなんですかね。

NVIDIA GB10 と N1 って、同じなの?

はじめに

NVIDIA GB10 については、なんどもこのブログでも取り上げてきました。

vengineer.hatenablog.com

今回は、GB10 と Windows PC 用の N1 の比較をしてみます。

N1X の GPU仕様

下記のように、N1Xの下記のブログでも書きましたが、

  • CPU : 20コア
  • GPU : 6144 CUDAコア

です。

vengineer.hatenablog.com

GB10 も同様に

  • CPU : 20コア
  • GPU : 6144 CUDAコア

です。

N1 搭載のノートPC用の基板

下記の記事に、NVIDIA N1が搭載されたノートPCの基板の写真が載っていました。

joho-todai.com

下記の写真は、N1の部分の画像です。説明のために引用します。

この画像と、ServeTheHomeのこの記事(NVIDIA DGX Spark Review The GB10 Machine is so Freaking Cool)に載っていた画像(説明のために引用します)を並べてみました。

パッケージに載っている小さなチップの位置と個数、同じですね。

ということは、基本的には、GB10 と N1 は同じってことですかね。

おわりに

上記のN1の記事では、128GBのLPDDR5Xが載っていると書いてあるので、GB10と同じですね。

GPUのメモリを含めても、128GBのメモリって、メッチャ多いです。このノートPC、お幾らになるんですかね。。

NVIDIA ConnectX-9のDie ShotのPCIe Controller部を眺める

はじめに

下記の動画を見ていたら、ConnectX-9 の Die Shot が出てきました。

youtu.be

よーく見たら、PCIe Controller の場所がわかりましたので記録に残します。

ConnectX-9 の PCIe の仕様

  • Gen 6 が 48 lanes

ConnectX-9 の Die Shot

下記を説明のために、引用します。

赤色の点線で囲ったところが、PCIe Gen6 Controller x16で、3つある。

黄色のの点線で囲ったところが、PCIe Gen6 Switch だろう。

16 lanes x 3 = 48 lanes なので、仕様にあっている。

BlueField-4の場合

BlueField-4の場合は、下記のように Grace と ConnectX-9 が並んでいます。

ConnectX-9のPCIe部からGraceの下を通って、Graceの左側のPCIe 部につながっているのだと思います。

下記の写真は、NVIDIAのBlueField-4のサイトから説明のために、引用します。

Graceが左側なのは、カードのコネクタとGraceのPCIe を繋げる必要があるからだと思います。

おわりに

PCIe Gen6 x16 が3つとPCIe Switch でConnectX-9全体の 1/3 ぐらいもあるんですね。PCIe って、コストが高いんですね。

TSMCのプロセス別顧客って、どうなの?

はじめに

TSMCのプロセス別顧客について、XのGrokではなく、xAI の Grok さんに聞いてみました (XのGrokの制限になったため)

N7の顧客

TSMC内のN7クラス(7nmファミリー全体:N7 / N7+、N7P、N6 / N6RF / N6+など)の顧客順位(生産量・ウェハー割り当て・売上寄与ベース)は、2026年2月現在でQualcommやMediaTek、AMDなどのスマホ/ミッドレンジHPC顧客が中心で、Appleが依然として相対的に強い位置を保ちつつ、全体として成熟ノードのためAI/HPCシフトの影響で割り当てが分散・減少傾向です。N7クラスは2018年から量産開始の古株ノードで、2025年通年でウェハー売上の14%(Q4 2025でも14%)と寄与は低下中ですが、利用率は60%前後から回復傾向(一部需要増で70%超のラインも)で、自動車/コンシューマ/エッジAI/マイニングチップなどで安定需要があります。

TSMC N7クラス顧客の推定順位(2026年時点、主に生産量/割り当てベース)

TSMCはノード別・顧客別詳細非公開のため、TSMC決算データ(2025年7nm寄与14%)、業界アナリスト(TrendForce、DigiTimes、SemiAnalysisなど)、過去パターン・推定を基にしたランキングです。N7/N6ファミリーはスマホ/自動車/コンシューマ中心で、AI/HPCはほぼN5以上へ移行済み。

  1. Qualcomm(最有力トップ候補)

    • Snapdragon 7/6シリーズ、ミッドレンジSoC、自動車/エッジ向けでN7/N6を大量継続使用。
    • スマホ市場のボリュームゾーン需要が強く、N7クラス内シェアの20〜30%前後推定。全体TSMC売上シェア8%前後だが、成熟ノードでは割り当て優先度が高い。
  2. MediaTek

    • Dimensity 7000/8000シリーズ以降のミッドレンジ/エントリーSoCでN6/N7主力。
    • スマホ/タブレット/自動車向け大量生産で、Qualcommに次ぐ規模。全体シェア9〜10%だが、N7クラスでは上位2位争い。
  3. Apple(伝統的強者だが相対低下)

    • Aシリーズ/Mシリーズの旧世代一部や周辺チップでN7/N7+残存使用(ただし主力はN5/N4/N3へ移行)。
    • スマホ需要のボリュームで割り当ては依然大きいが、N7クラスでは3位前後。全体ではAppleがTSMC最大顧客(22〜25%)だが、先進ノード優先のためN7は相対的に後退。
  4. AMD

    • Ryzen/EPYC旧世代チップレット一部、Radeon GPUミッドレンジでN7/N6使用。
    • AI GPU(Instinct)はN3/N5へシフト済みなので、N7寄与は限定的だが、CPU/コンシューマGPUで安定シェア。
  5. NVIDIA(HPC寄与低め)

    • 旧世代GPU(Ampere/Ada一部)やネットワーキングチップでN7使用。
    • AI主力(Blackwell/Rubin)はN3/N5/N2優先のため、N7クラス割り当ては少数。全体売上ではNVIDIAがTSMC最大顧客(2025〜2026で22%前後)だが、N7では下位。
  6. その他(Broadcom、自動車/コンシューマ顧客、マイニングなど)

    • BroadcomのカスタムASIC一部、自動車向け(NXP/Infineon委託?)、Bitcoinマイニングチップなどで使用。
    • 最近の6/7nm需要微増(マイニング/自動車/コンシューマ)で割り当て増傾向。

全体のポイント

  • N7クラスの生産量シェア:スマホ/ミッドレンジSoC(Qualcomm/MediaTek中心)が過半数、自動車/IoT/コンシューマが残り。HPC/AIはほぼゼロ(N5以上へ移行完了)。
  • TSMC全体で先進ノード(7nm以下)が売上の74%(2025年、Q4で77%)を占め、7nm単独14%と低下中。N7容量の一部はN5/N3へ転用され、利用率は60〜70%台で価格調整(一部10%減)もあったが、2026年は需要微回復。
  • 容量逼迫は先進ノード(N3/N2/N5)に集中し、N7は成熟ノードとして安定供給。2026年はN2ランプアップでさらにN7/N6がスマホ/エッジ特化へシフト。
  • 顧客間ではスマホ王者(Qualcomm/MediaTek/Apple)が支配的で、N3クラス(NVIDIAトップ)やN5クラス(Appleトップ)とは大きく異なり、AIブームの影響が薄い「旧来のボリュームノード」。

つまり、TSMC内N7クラスの顧客順位は「Qualcomm ≈ MediaTek > Apple > AMD > NVIDIA」という構図で、スマホ/ミッドレンジ中心の安定需要が支えています。AIシフトが進む中、N7は「コモディティ化」しつつも、大量生産の基盤として残るでしょうね。2026年もこのパターンが続きそうです。

N5クラスの顧客

TSMC内のN5クラス(5nmファミリー全体:N5 / N5P、N4 / N4P / N4X、N4Cなど)の顧客順位(生産量・ウェハー割り当て・売上寄与ベース)は、2026年2月現在でAppleが依然として圧倒的1位を維持している状況です。N5クラスは2020年から量産開始の成熟ノードで、現在もスマホ/HPCの大量生産に使われており、全体ウェハー売上の35〜36%(2025年通年で36%、Q4 2025で35%)を占める大規模ノードですが、AI/HPCシフトでN3/N2への転換が進む中でもAppleのスマホ/SoC需要が支えています

TSMC N5クラス顧客の推定順位(2026年時点、主に生産量/割り当てベース)

TSMCは顧客別・ノード別詳細を非公開のため、業界アナリスト(TrendForce、DigiTimes、Economic Daily News、SemiWiki、CNBCなど)のレポート・TSMC決算データ・推定を基にしたランキングです。N5/N4ファミリーはスマホ中心でAppleが独占的に大量消費、HPC(AI)寄与は一部(NVIDIA/AMDの旧世代GPUやカスタムチップ)。

  1. Apple(ダントツ1位、シェア50%超の可能性)

    • Aシリーズ(A18/A19?)、Mシリーズ(M4/M5?)の多くがN5P/N4P/N4で生産継続中。
    • N5クラスの「伝統的アルファ顧客」として優先割り当てが大きく、スマホ需要の安定性からN5内シェアの過半数を占めると推定。
    • 全体TSMC売上シェアでは2026年にNVIDIAに抜かれ2位(18%前後推定)だが、N5クラスに限ればAppleが依然トップ。先進ノード移行(N3/N2)でもN5はスマホコスト最適化で残存需要強い。
  2. Qualcomm

    • Snapdragon 8 Genシリーズの高エンドSoCでN4P/N5P/N4を大量使用(PC/スマホ/自動車向け)。
    • N5クラスでの割り当てはAppleに次ぐ規模で、スマホ市場シェアから2位圏内安定。
  3. MediaTek

    • DimensityフラッグシップシリーズでN5/N4採用。
    • スマホ/エッジAI向けでシェア堅調だが、上位2社に比べて規模小さめ。
  4. NVIDIA(HPC寄与はあるがN5では相対的に低い)

    • 旧世代GPU(Ampere/Ada Lovelace一部やBlackwell初期の一部?)でN5P/4N使用。
    • AIブームでN3/N3P/N2へ急移行中なので、N5クラス割り当ては減少傾向。全体売上では2026年に22%前後($33B推定)でTSMC最大顧客だが、N5クラスでは4位前後(AI向けは先進ノード優先)。
  5. AMD

    • Ryzen/Instinct旧世代やチップレット一部でN5/N4使用。
    • AI GPU(MI300以降)はN3/N3Pへシフトのため、N5寄与は限定的。
  6. その他(Broadcom、Google、Intelなど)

    • BroadcomのカスタムASIC、Google TPU旧世代、Intel一部委託などで少数使用。
    • N5クラス全体では上位5社が大半を占める。

全体のポイント

  • N5クラスの生産量シェア:スマホ(Apple/Qualcomm/MediaTek中心)が過半数超、HPC(NVIDIA/AMD)は残り少数。2025〜2026年でN5ファミリー売上寄与は35〜36%と依然大きいが、N3(24〜28%)と並んで主力。
  • TSMC全体でHPC(AI関連)が売上の55〜58%を占める中、N5は成熟ノードとしてスマホ安定需要で支えられ、AI顧客(NVIDIAなど)はN3/N2優先のためN5割り当てが相対低下。
  • 容量は成熟で逼迫緩和傾向だが、2026年に価格5〜10%引き上げ(先進ノード全体)で収益性向上。N5容量の一部はN3へ転用計画あり。
  • 2026年後半〜2027年はN2ランプアップでN5/N4がさらにスマホ特化へシフト、Appleのシェアがさらに固まる見込み。

つまり、TSMC内N5クラスの顧客順位は「Apple >> Qualcomm ≈ MediaTek > NVIDIA > AMD」という構図で、N3クラス(NVIDIAトップ)とは対照的にスマホ王者Appleが支配しています。AIブームがN3/N2を優先させる中、N5は「安定のAppleノード」として残るでしょうね。2026年もこのパターンが続きそうです。

N3クラスの顧客

TSMC内のN3クラス(3nmファミリー:N3/N3B、N3E、N3P、N3Xなど)の顧客順位(生産量・ウェハー割り当て・売上寄与ベース)は、2026年2月現在でAI需要爆発によりNVIDIAが急上昇し、Appleを逆転または並ぶレベルでトップ争いをしている状況です。全体容量が月産18〜22万枚規模でほぼフルブッキング(2026年いっぱいまで予約済み)なため、顧客間の順位はウェハー割り当て量・契約規模・単価で決まります。

TSMC N3クラス顧客の推定順位(2026年時点、主に生産量/割り当てベース)

TSMCは顧客別詳細を公開しないため、業界アナリスト(TrendForce、Wccftech、Economic Daily News、SemiWikiなど)のレポート・推定を基にしたランキングです。AI/HPC向けN3E/N3P/N3Xが主力で、スマホ向けN3Pも混在。

  1. NVIDIA(最有力トップ候補)

    • Blackwell後継のRubin/Rubin UltraシリーズがN3P/N3Xで本格量産中。AI GPU需要が爆発的に強く、TSMC全体売上シェアで2025年に既に19%近く(Apple超え報道あり)、2026年はさらに上昇。
    • N3容量の30〜40%超(一部推定でほぼ半分近く)を占めるとの指摘多数。NVIDIAの「爆発的需要」でTSMCが3nm生産を50%増強した事例も。
    • 単価が高く(AIチップは高額)、割り当て優先度が極めて高い。CoWoSパッケージングもNVIDIA中心に逼迫。
  2. Apple(伝統的1位だが相対的に後退)

    • iPhone 17/A19シリーズ、Mシリーズ(M5/M6?)でN3P/N3Eを大量使用。
    • 従来はN3の「アルファ顧客」として優先供給されていたが、AIブームでNVIDIA/AMDの急増により相対シェア低下。2025〜2026年でも売上寄与は20〜25%前後維持の見込みだが、N3クラスではNVIDIAに抜かれ2位圏内。
    • スマホ需要は安定だが、AI/HPCほど爆発的成長なし。
  3. AMD

    • Instinct MI350/MI400シリーズ(AI GPU)、Zen 5/Zen 6 CPUチップレットでN3P/N3X採用。
    • 需要急増で割り当てが増加中。TSMC全体売上シェア7〜8%程度だが、N3クラスでは上位3位以内。NVIDIA同様AI寄与が大きい。
  4. Qualcomm

    • Snapdragon 8 Gen 4以降の高エンドSoCでN3E/N3P移行。
    • スマホ/PC向け大量生産だが、AIアクセラレータほど単価・優先度が高くないため4位前後。
  5. MediaTek

    • Dimensity 9400以降のフラッグシップでN3E/N3P。
    • スマホ/自動車向けでシェア安定だが、上位4社に比べて規模小さめ。
  6. その他(Broadcom、Intel、Googleなど)

    • Broadcom(カスタムAI/ネットワーキング)、Intel(Lunar Lake/Arrow Lake一部や外部委託)、Google(TPU v9?)などもN3採用だが、割り当ては上位に比べて少数。
    • OpenAIのカスタムチップ(Titan)もN3予定で新興勢力として注目。

全体のポイント

  • N3クラスの生産量シェア:AI/HPC(NVIDIA/AMD中心)が過半数超を占め、スマホ(Apple/Qualcomm/MediaTek)が残り。2026年はNVIDIAのRubinランプアップでNVIDIAがN3内実質1位という見方が強い(一部報道で「NVIDIAが3nmのバックボーン」)。
  • TSMCのHPC売上(主にAI関連)が全体の55〜60%で、その大半がN3クラス。N3単独で売上の28%前後(2025Q4データ)。
  • 容量逼迫で「顧客間競争」が激化。Appleですら供給制約を公言(2026年Q2見通しで先進ノード不足言及)。優先度はAI需要の高さ・長期契約・単価で決まる。
  • 2026年後半〜2027年はN2(2nm)移行でN3容量が一部N2へシフトするが、需要強すぎてN3も高水準維持。

つまり、TSMC内N3クラスの顧客順位は現在「NVIDIA > Apple ≈ AMD > Qualcomm > MediaTek」という構図で、AIブームの象徴としてNVIDIAが急浮上しています。2026年後半のRubin本格化でこの順位がさらに固まるでしょうね。

おわりに

TSMCの各プロセスでの顧客の順位

  • N7クラス : Qualcomm ≈ MediaTek > Apple > AMD > NVIDIA

ここは、スマホ

  • N5クラス : Apple >> Qualcomm ≈ MediaTek > NVIDIA > AMD

ここも、まだ、スマホ

  • N3クラス : NVIDIA > Apple ≈ AMD > Qualcomm > MediaTek

ここから、AIかー。

Apple M5 Pro/M5 Max

はじめに

Apple M5 Pro/M5 Max は、

  • CPU Die
  • GPU Die

の 2 Die 構成ということになっているようですが、まだ、Die Shot が流れてこないので、今回はテカナリエの清水さんのXの投稿に流れてきた2つの写真から色々と妄想したいと思います。

M5 Max 跡地

まずは、M5 Max 跡地の写真

説明のために写真を引用します。

  • CPU Die : 赤線枠
  • GPU Die : 青線枠

GPU Die の下には、2個の四角いものがあります。

下記の記事に、M4 Max の跡地の写真があります。

eetimes.itmedia.co.jp

M4 Max の跡地のところだけを説明のために引用します。

M4 Maxの時は、5つあります。これらは、大きな silicon capacitor のようです。

つまり、

  • M4 Max : 5 x silicon capacitor
  • M5 Max : 2 x silicon capacitor

と、silicon capacitor の数が減っているということなんでしょうか?

おわりに

いずれ、テカナリエレポートにて、M5 Pro/M5 Max の Die shot が掲載されるので、どのようになっているがわかると思います。

Microchip の PCIe Switch がイイ感じ?

はじめに

Xに、Microchip の PCIe Switch PCI11414C が流れてきたので記録に残します。

Microchip の PCIe Switch PCI11414C

上記のPDFの中からブロック図を下記に引用します。

  • PCIe Gen3 x 4 lanes
  • PCIe Gen3 switch
  • PCIe Gen3 x 1 lane Downstream Port
  • USB 3.2 Gen 2 (10 Gbps) x HCI host
  • 2.5 Gbps Ethernet MAC
  • I/O Multiplexer (SMBus/SPI/UART/GPIO)

USB 3.2 Gen 2 は、10 Gbps なので、PCIe Gen3 x 1 laneじゃ、足りないんですね。

4 x lanes だと、32 Gbps あるので、

  • PCIe Gen3 x 1 lane Downstream Port
  • USB 3.2 Gen 2 (10 Gbps) x HCI host
  • 2.5 Gbps Ethernet MAC

をサポートできるんですね。

おわりに

MOUSERによると、1個だと、$30.56 なんですね。

USB Hub Gen 3.2 だと、PCIe は Gen3 x 1 laneじゃダメで、Gen 4 x l1 ane じゃないとダメなんですね。

Google TPU Ironwood (V7X) は、やっぱり、v6p だった

はじめに

昨日、Grok さんとGoogle TPU について対話している時に、v6e => v7 Ironwood になったけど、v6p ってどうなった?ということになりました。

Grok さんは、公式には v6p が無いと言い張ったのですが、

下記のブログで、v6p の PCI DEVICE ID が 0x0075/0x0076 ということを提示しました。

vengineer.hatenablog.com

その回答のとして、

このDevice IDは、Googleの内部システム(特に仮想化環境やドライバ、TPU VMの認識)で使われる識別子です。ソースコードに「v6p」と書かれているため、内部開発コードネームや計画段階の名称として「v6p」が存在したことは確かです。

とありました。

で、再度、上記のブログの対象となっているコードを見に行ったら、あらら。。。

やっぱり、v6p は v7 Ironwoord になっただけだった

ここを見てみると、下記のように、V6P のところが、7x になっています。

 // TPUV6eDeviceID is the PCI device ID of TPU V6e hardware.
    TPUV6eDeviceID = 0x006f

    // TPUV6ePFDeviceID is PCI device ID of TPU V6e hardware PF.
    TPUV6ePFDeviceID = 0x006e

    // TPU7xDeviceID is the PCI device ID of TPU 7x hardware.
    TPU7xDeviceID = 0x0075

    // TPU7xPFDeviceID is the PCI device ID of TPU 7x hardware PF.
    TPU7xPFDeviceID = 0x0076

0x0075 と 0x0076 が 7x になっています。

おわりに

やっぱり、v6p が v7x になったんですね。マーケティングとして、v6p を v7x にしたということなんでしょうかね。