快科技8月11日音讯,AI这两年来成为商场热门,并且也成为大国竞赛的要害技能之一,NVIDIA的GPU尽管更强壮,但在存储芯片上也要依靠韩国厂商,由于HBM内存逐步卡住AI脖子。
HBM(High Bandwidth Memory)是一种高带宽内存规范,大多数都用在满意日渐添加的核算需求。
在这个范畴,首先量产的是SK海力士,美国也有美光公司开端量产,内存一哥三星反而是最慢的。
HBM最新规范现已到了HBM4,但商场上当时的主力仍是HBM3E,仓库层数正在从8层提高到12层,单颗容量轻松到达36GB,而SK海力士凭仗技能优势能做到16层仓库,容量48GB,本年就能供货。
得益于商场优势,SK海力士HBM事业部高管崔俊龙Choi Joon-yong日前在采访中表明,来自终端用户对AI的需求十分巨大,并且十分安定。
该公司也预测到2030年之前,HBM商场将以每年30%的添加率开展,商场规模将到达数百亿美元。
HBM内存也渐渐的变成为韩国芯片出口的主力,上一年对美国的芯片总出口为107亿美元,其间HBM就占了存储芯片的18%。
NVIDIA、AMD及Intel三家首要的AI芯片巨子当时及下一代的AI芯片也会促进提高HBM显存的容量和速度,其间AMD下一年的主力产品MI400将运用高达432GB的HBM4,带宽19.6TB/s,比照MI350系列的288GB HEM3E、8TB/s别离添加50%、145%,比竞赛对手的产品也高出50%。
值得一提的是,HBM也成为国内AI芯片开展的要害约束要素之一,国内也有公司在自研HBM芯片,但技能水平落后SK海力士一两代,HBM3e、HBM4量产还要等几年时刻。
不过华为即将在未来两天发布一项新技能,这项效果或能下降我国AI推理对HBM(高带宽内存)技能的依靠,提高国内AI大模型推理功能,完善我国AI推理生态的要害部分。