AI 서버에서 메모리 비용 구조 추정

219

    • 1ㅇㅇ2023/05/30(Tue) 23:54:10ID:A0NDQ0NDA(1/1)NG報告

      AIサーバーにおけるメモリコスト構造の推定

      - 結論:HBMの価格とMUのM/Sを考慮すれば、国内社に大きく不利ではない

      DRAMBOMの割合が低いため、Micronが最も劣位にあるという内容です。
      "Micron looks very weak in AI"

      - GPUに取り付けられたHBMを除くDRAMのBOM Costは$7,860(2.9%)

      - HBM2Eの場合は12ドル/GB、HBM3の場合は14ドル/GB

      - H100の場合、HBM 80GBを基本的に装着

      - DGX H100でのHBM Cost = 8GPU x 80GB HBM x 14ドル/GB = $8,960
      - - DGX H100의 Total DRAM = HBM + DRAM = $16,820 = 6.3% of BOM
      - Sapphire Rapids ServerでのDRAM BOM=$3,930と比べると約4倍のDRAM Cost消耗
      - 従来のサーバーDRAMにおける市場シェアSKハイニックス39%、サムスン電子35%、Micron25%とは異なり
      - HBMにおける23F市場シェアはSKハイニックス48%、サムスン電子43%、Micron9%まで考慮すると

      - Sapphire Rapids Serverにおけるサムスン電子+SKH Share = $3,930 x 81% = $3,183
      - DGXにおけるSamsung電子+SKH Share=$16,820 x 91% = $15,360で5倍以上のEffect有
      - DGX Serverの価格は従来のServerに比べて約27倍高いが、単純互換関係ではないが他の変数を統一した仮定の下で、

      - Service Providerの立場でDGX一つを投資するためにCapexが負担になり、Sapphire Rapidsserverの購入を1/5に減らさない限り
      国内DRAM社に有利な環境

レス投稿

画像をタップで並べ替え / 『×』で選択解除