存储芯片作为最具有周期性的芯片品类之一,一向有着半导体行业的“晴雨表”之称,但此次下行周期的下跌幅度和持续时间都超出了业界预期。近日,三星已经通知分销商拒绝以低于当前价格出售DRAM芯片,市场或将迎来触底反弹?
降价不如减产
DRAM作为存储芯片的第一大品类,占据了全球存储市场超一半的份额,可由于消费电子市场下行,大大减少了对存储器产品的需求,导致本次市场下行的幅度超乎想象。根据TrendForce集邦咨询发布的数据,2022年第四季度DRAM产业营收122.8亿美元,环比下降32.5%,跌幅甚至超越第三季度的28.9%,已逼近2008年年底金融海啸时单季36%的跌幅。预估2023年第一季度DRAM价格跌幅会收敛至13%~18%,但仍不见下行周期的终点。
如此冷峻的市场环境让以存储芯片为主要业务的厂商叫苦不迭,首当其冲的就是行业龙头老大,占据约40%DRAM市场份额的三星。三星表示,2023年第一季度的合并销售额约63万亿韩元(约合人民币3267亿元),同比下跌19%,合并营业利润约6000亿韩元(约合人民币31.1亿元),同比下跌95.8%——如此跌幅是时隔14年,也就是自2009年来第一次出现合并营业利润跌破1万亿韩元的情况。而造成本次营收如此惨淡的原因是存储芯片业务的进一步恶化。
在重重经营压力之下,一直号称只降价不减产的三星,被迫发布声明称“将根据对公司已确保足够数量以应对未来内存需求变化的评估,进行产线调整,将内存产量降低到有意义的水平,并优化已经在进行中的生产线运营。”这是自1998年金融危机以来,三星时隔25年首次制定正式减产方案。
赛迪顾问集成电路高级分析师杨俊刚向《中国电子报》记者表示,从目前市场的价格来看,销售价格已经低于成本价,有的DRAM产品的价格已经同比降低了52%。如果按照容量来算,基本处于历史最低价格,但是由于下游市场需求疲软,在销量上并没有明显的提升。“降价对市场销售额的提升作用较小。现在SK海力士、美光等存储器领先厂商纷纷通过减少产量、降低资本投资、降薪裁员等方式来减少因销售经营所带来的影响。”杨俊刚说道。
芯谋研究高级分析师张彬磊认为,三星、SK海力士、美光等大厂只要减产,市场上的库存短期内就不会上升,就可以达到扩大市场需求,回升市场价格的效果。
“三星此举是正确的,SK海力士和美光应该立马效仿,同时采取这个策略,这有助于DRAM市场回暖。”张彬磊说道。
产能将转向高端?
另一个值得注意的地方是三星此次的减产只针对DDR4 DRAM,从而将更多产能转向DDR5/LPDDR5。DDR5在性能上相对于DDR4具有较大的提升,主要表现在带宽速度、单片芯片密度、工作频率三个方面。因此,DDR5更适用于数据中心、元宇宙、AI等新兴领域的服务器产品。半导体厂商削减过剩的DRAM产品,提前储备未来趋势产品,有利于库存水位的调整。
半导体行业专家张先扬表示,DDR5/LPDDR5对比DDR4利润空间和溢价空间更大,三星旨在通过改变产品结构以改善营收,也表现了三星对DRAM市场的乐观预期。综合来看,2024年上半年DRAM市场情况依然严峻,但跌幅已趋收窄,在各大Foundry限产和需求市场逐渐回暖的背景下,预计到2024年年末DDR5/LPDDR5将取代大部分DDR4,DRAM市场有望在2024年第三或第四季度回暖。
目前,三星、SK海力士和美光在DRR5 DRAM技术上的较量已经进入白热化,各方都在不断推出新的技术和产品,并且都已经进入市场。从合作对象来看,三大存储芯片厂商在DDR5方面都已与英特尔和AMD等服务器处理芯片供应商合作,以便更好、更快地提高处理器芯片和存储器芯片之间的兼容性。
除了DDR5,乘着AI领域发展东风的还有HBM DRAM。HBM对于高性能计算系统中的生成型AI运行起到至关重要的作用,因此受到了内存芯片行业的广泛关注。目前最新的HBM3规格DRAM被认为是快速处理大量数据的理想产品。
2023年开年以来,三星、SK海力士的HBM订单快速增加,价格也水涨船高。有消息称,近期HBM3规格DRAM价格上涨了5倍。英伟达已经将SK海力士的HBM3安装到其高性能GPU H100上,而H100已用于ChatGPT服务器。
4月20日,SK海力士宣布,首次实现垂直堆叠12个单品DRAM芯片,成功开发出最高容量24GB的HBM3 DRAM新产品。SK海力士的工程师通过应用先进的批量回流模压填充(MR-MUF)技术,提高了新产品的工艺效率和性能稳定性,同时通过硅通孔(TSV)技术,将单个DRAM芯片的厚度降低了40%,达到了与16GB产品相同的堆叠高度水平。SK海力士有关人士表示:“这款新品的内存容量比前一代产品增加50%的24GB封装产品,将在下半年向市场供应,以满足由AI聊天机器人行业带动的高端内存产品的需求。”
尽管HBM具有出色的性能,但与一般DRAM相比,其应用较少。这是因为HBM复杂的生产过程,平均售价至少是DRAM的3倍。但AI服务的扩展正在扭转这样的局面。据悉,目前已经有超过2.5万块英伟达计算卡加入到了深度学习的训练中。未来,随着生成式AI需求增长,HBM的需求也将呈现出上扬态势。