サムスン電子はチェ·ジンヒョク米州法人メモリー研究所長(副社長)が最近、米国カリフォルニア州で開かれたメムコン2023で「データ中心コンピューティング時代のメモリー革新」を主題に基調演説を行ったと発表した。
メムコン2023はAIメモリーソリューションを扱うために今年初めて開催された学会だ。 三星電子は設立メンバーの資格で出席した。 グーグルやマイクロソフトなどグローバルIT企業とメモリー、デバイス部門の多様な企業も参加した。
崔副社長は同日、プロセッサーとメモリー間のボトルネック現象を解決できる三星電子の次世代メモリー技術を紹介した。 高性能メモリに演算機能を内蔵した「HBM-PIM(知能型メモリ)」、演算機能をメモリの横に位置させた「PNM(プロセッシングニアメモリ)」、システムのメモリ容量をテラバイト(TB)級まで拡張できる「CXL(コンピュータエクスプレスリンク)DRAM」などだ。
チェ副社長は、生成型AIであるチャットGPTが活性化され、データを円滑に処理できる次世代メモリー技術が新たに浮上していると強調した。 チェ副社長は「チャットGPTのような大規模AIモデルの場合、メモリーボトルネック現象で遅延される部分が80%に達すると推定される」として「このような場合、文章生成速度が遅延するなどの問題が発生する」と話した。
彼は、三星電子は大規模AIモデルにHBM-PIM技術を適用する場合、従来のHBMが搭載されたGPU(グラフィック処理装置)加速器に比べ、AIモデルの生成性能が3.4倍ほど改善されるものと分析した。 これと共に、CXLベースのPNM技術を適用する際、従来のGPU加速器対比Dラム容量は4倍増加し、AIモデルのローディング速度は2倍以上速くなると説明した
삼성 “차세대 반도체로 챗GPT 속도 3.4배 올린다”
40
ツイートLINEお気に入り
33
3