券商观点|英伟达AI芯片再升级,全球算力需求仍居高不下

8月10日,东方证券发布一篇计算机行业的研究报告,报告指出,英伟达AI芯片再升级,全球算力需求仍居高不下。

报告具体内容如下:

核心观点


(相关资料图)

英伟达推出下一代AI超级芯片GH200。美国当地时间8月8日早上,英伟达创始人、CEO黄仁勋在世界计算机图形会议SIGGRAPH2023上进行了主题演讲。在本次演讲中,英伟达宣布推出了下一代NVIDIAGH200GraceHopper超级芯片,并配备了全球首发的HBM3e内存。GH200由72核GraceCPU和4PFLOPS的HopperGPU组成,内存容量高达141GB,提供每秒5TB的带宽。通过将两个GH200芯片连接到一起,可以得到性能更强的计算服务器。与前一代相比,双配置的内存容量是之前的3.5倍,带宽是之前的3倍。GH200芯片有望于2024年Q2末投入生产。

芯片升级带来更高的能效,在同等预算和同等工作负载条件下都较以往以CPU为主的数据中心有很大提升。在过去60年里,通用计算是相对主流的,用1亿美元可以打造8800块x86CPU组成的数据中心,功耗是5MW。而在当下以及未来的加速计算和AI计算时代,用同样的1亿美元,可以打造由2500块GH200芯片组成的数据中心,功耗仅有3MW,并且其AI推理性能将达到上述CPU系统的12倍,能效达到20倍。如果要达到和1亿美元的x86CPU数据中心相同的AI性能,仅需要210块GH200组成的计算平台即可,功耗仅为0.26MW,成本也只需800万美元。

英伟达仍旧牢牢占据AI基础设施领域的主导地位。自ChatGPT引领生成式AI浪潮以来,NVIDIAGPU已成为支持生成式AI和大模型训练的大算力AI芯片首选。随着此次GH200超级AI芯片的升级以及多款GPU、服务器产品的推出,英伟达展现了在AI基础设施领域的绝对主导地位。

英伟达持续拓展AI生态,与HuggingFace合作、推出AIWorkbench和AIEnterprise4.0。英伟达将为HuggingFace上构建大型语言模型和其他高级AI应用程序的开发人员提供生成式AI的超级计算能力,通过HuggingFace平台可以直接在NVIDIADGXCloud上训练模型。AIWorkbench是一个统一易用的工作空间,帮助开发人员快速在PC或工作站上创建、测试和微调模型,并无缝扩展到几乎任何数据中心、公有云或NVIDIADGXCloud上。NVIDIAAIEnterprise4.0新支持了多款软件和工具,有助于简化生成式AI部署。

英伟达成为AI大模型开发的首选,GPU短缺问题短期难解决。英伟达在AI芯片领域的长期积累使其在生成式AI浪潮中占据了主导地位,英伟达的GPU也成为了各大科技公司争相采购的对象。但GPU的供应瓶颈限制了人工智能领域的快速发展,NVIDIAH100正面临有史以来最严重的缺货。根据GPUUtils的测算,目前市场上对H100的需求在43.2万张左右,这个数字还没有包括中国区特供的H800,国内各家大模型厂商对H800的需求也居高不下。英伟达目前也在积极提升产能,预计算力供应短缺的情况可能还会持续一段时间。

投资建议与投资标的

我们认为,算力板块有望维持较高景气度,算力产业链值得重视。建议关注海光信息(688041,买入)、浪潮信息(000977)(000977,未评级)、中科曙光(603019)(603019,买入)、拓维信息(002261)(002261,未评级)、优刻得-W(688158,未评级)、亚康股份(301085)(301085,未评级)等。

风险提示

技术落地不及预期;政策监管风险;芯片产能不足风险

声明:本文引用第三方机构发布报告信息源,并不保证数据的实时性、准确性和完整性,数据仅供参考,据此交易,风险自担。

关键词: