华福证券:AI芯片推陈出新!HBM或迎成长机遇
Nvidia发布新一代GPU芯片H200,HBM3e助力性能升级。11月13日,NVIDIA宣布推出新一代的GPU H200,本次新品发布的最大亮点在于,H200为全球首款搭载HBM3e内存的GPU。在全球最快内存HBM3e的助力下,H200在内存容量、带宽和性能等方面迎来了全面升级。一方面,H200能以每秒4.8TB的速度提供141GB内存,内存较A100和H100几乎翻倍,带宽较A100和H100分别增加2.4/1.4倍;另一方面,高内存带宽也使H200能够实现更快的数据传输,对于模拟、人工智能等内存密集型的高性能计算场景,H200可实现较CPU快110倍的生成结果时间,为处理生成AI和HPC工作负载的海量数据提供强大支持。
AI高算力需求推动下,HBM将大放异彩。AI大模型的兴起催生了海量算力需求,而数据处理量和传输速率大幅提升使AI服务器对芯片内存容量和传输带宽提出了更高的要求。HBM在此背景下应运而生。与传统DDR存储器不同,HBM使用TSV和微凸块垂直堆叠多个DRAM芯片,并通过封装基板内的硅中介层与GPU直接相连,从而具备高带宽、高容量、低延时与低功耗等优势,相同功耗下其带宽是DDR5的三倍以上。因此,HBM突破了内存瓶颈,成为当前AI GPU存储单元的理想方案和关键部件。TrendForce认为,高端AI服务器GPU搭载HBM芯片已成主流,2023年全球搭载HBM总容量将达2.9亿GB,同比增长近60%,SK海力士预测,HBM市场到2027年将出现82%的复合年增长率。
HBM成为存储大厂兵家必争之地,H200或将再次掀起HBM布局大战。作为AI芯片的主流解决方案,HBM受到了存储巨头的高度重视。自2013年SK海力士首次成功研发HBM以来,三星、美光等存储巨头也纷纷入局,展开了HBM的升级竞赛,目前HBM已从第一代(HBM)升级至第四代(HBM3)。据报道显示,三星正在向AMD提供HBM3和交钥匙封装服务,并完成了与主要客户关于2024年HBM供应的谈判;SK海力士则于今年8月向Nvidia提供了HBM3e的样品,并正在向AMD供应HBM3。与此同时,台积电也宣布将CoWoS产能扩大两倍,以期更好地支撑水涨船高的HBM需求。展望未来,H200的推出有望再次掀起HBM布局浪潮,随着存储巨头的持续发力,产业链上下游企业也将紧密部署,HBM的影响力将逐步扩大并带来全新机遇。
投资建议:半导体方向,建议关注上游设备、材料、零部件国产替代机会,如昌红科技、新莱应材、正帆科技、汉钟精机、腾景科技、英杰电气等,以及IC封装领域重点公司,如长电科技、通富微电、华天科技、晶方科技等;PCB方向,建议关注积极参与AI及服务器相关赛道的公司,如沪电股份、胜宏科技等;消费电子方向,建议关注消费电子行业的触底复苏机会,如顺络电子、风华高科、飞荣达、汇顶科技、春秋电子等。
风险提示:地缘政治风险,电子行业景气复苏不及预期,消费电子下游需求不及预期,AI芯片下游需求不及预期,相关公司新产品研发不及预期,半导体国产替代进度不及预期
(来源:华福证券)
免责声明
以上内容仅供您参考和学习使用,任何投资建议均不作为您的投资依据;您需自主做出决策,自行承担风险和损失。九方智投提醒您,市场有风险,投资需谨慎。
推荐阅读
相关股票
相关板块
相关资讯
扫码下载
九方智投app
扫码关注
九方智投公众号
头条热搜
涨幅排行榜
暂无评论
赶快抢个沙发吧