HBM은 韓 반도체 미래 100단 쌓을 것

58

    • 1名無し2023/10/06(Fri) 10:10:52ID:cwMjEwNjg(1/1)NG報告

      高帯域幅メモリー(HBM)は韓国企業が世界半導体市場を主導できる核心です。 人工知能(AI)とスーパーコンピューター、自動運転車など未来応用先の需要を考慮すれば、HBMは今後100段も積み上げる次世代半導体に生まれ変わるでしょう」

      KAIST電気電子工学部のキム·ジョンホ教授は「SKハイニックスがHBM3で12段まで積み上げられるということを証明し、今後企業間の積層競争が持続するだろう」とし、このように明らかにした。

      HBMはシリコン貫通電極(TSV)工法で製作された半導体チップを積み上げ、高性能を具現したメモリー半導体だ。

      AI技術とサービス発展に伴い、グラフィック処理装置(GPU)活用が増えている。 膨大な量の演算を同時に行うGPUが発展するほど、近距離でGPU性能を補助しなければならないHBM性能も高度化せざるを得ないというのがキム教授の考えだ。

      キム教授はTSVモデリング研究を続けてきた半導体専門家で、高性能半導体設計とAI工学設計分野の碩学だ。 キム教授のシステム半導体パッケージング研究室は後輩教授と代を継いで研究を進めるKAISTの9番目の超世代協業研究室に指定され、キム教授引退後もHBMとパッケージング研究を持続できるようになった。

      未来のHBMは100段まで積むことができると予想した。 グローバルビッグテック企業が準備中の「個人AI秘書」サービスが世界市場に商用化される場合、急増するGPUデータ処理需要とより速い演算速度を後押ししなければならないためだ。

      HBMは積むほど容量が増え、性能が速くなる。 高く積むほどGPUとHBMを連結するチャンネルとTSVの数が増加し、より速い情報交流が可能になるためだ。 現在、HBM3でGPUとメモリーを連結するチャンネルは1024個だが、今後1万個まで増加し、TSVの数は100万個まで増えるだろうと見込んだ。 半導体ダイの厚さは10マイクロメートル(μm)まで薄くなると予想した。

      キム教授は「現在のAI発展速度と未来AI活用を考慮すれば、GPUとニューラルネットワーク処理装置(NPU)など性能と共にHBMも発展を繰り返すほかはない」として「チャットGPTなど生成型AI登場だけでGPUとHBM需要が急増したようにAIが発展するほどHBM需要が大きくなるのはもちろん、超高性能を要求するだろう」と強調した。

レス投稿

画像をタップで並べ替え / 『×』で選択解除