html做网站,如何做直播网站,公司网站用什么程序,金华网站如何制作今天分享的是AI算力专题系列深度研究报告#xff1a;《算力大时代#xff0c;AI算力产业链全景梳理》。
#xff08;报告出品方#xff1a;中信建投证券#xff09;
报告共计#xff1a;98页
核心观点
生成式 AI取得突破#xff0c;我们对生成式 A 带来的算力需求做…今天分享的是AI算力专题系列深度研究报告《算力大时代AI算力产业链全景梳理》。
报告出品方中信建投证券
报告共计98页
核心观点
生成式 AI取得突破我们对生成式 A 带来的算力需求做了上下游梳理并做了交叉验证可以看到以chatGPT 为代表的大模型训练和推理端均需要强大的算力支撑产业链共振明显产业链放量顺序为:先进制程制造-以chiplet 为代表的2.5D/3D 封装、HBM-AI 芯片-板卡组装-交换机-光模块-液冷-AI 服务器-IDC 出租运维。综合来看大模型仍处于混战阶段应用处于渗透率早期AI板块中算力需求增长的确定性较高在未来两年时间内算力板块都将处于高景气度阶段重点推荐 AI算力产业链各环节相关公司。
摘要
生成式 AI取得突破实现了从0到1的跨越以ChatGPT为代表的人工智能大模型训练和推理需要强大的算力支撑。自2022 年底 OpenAl正式推出ChatGPT后用户量大幅增长围绕ChatGPT 相关的应用层出不穷其通用性能力帮助人类在文字等工作上节省了大量时间。同时在Transformer 新架构下多模态大模型也取得新的突破文生图、文生视频等功能不断完善并在广告、游戏等领域取得不错的进展。生成式A将是未来几年最重要的生产力工具并深刻改变各个产业环节围绕生成式A无论是训练还是推理端算力需求都将有望爆发式增长。
训练和推理端 AI算力需求或几何倍数增长。首先是训练侧参考 OpenAl论文大模型训练侧算力需求训练所需要的token数量*6*大模型参数量。可以看到从GPT3.5到GPT4模型效果越来越好模型也越来越大训练所需要的token 数量和参数量均大幅增长相应的训练算力需求也大幅增长。并且与GPT4相关的公开论文也比较少各家巨头向GPT4迈进的时候需要更多方向上的探索也将带来更多的训练侧算力需求。根据我们的推算2023年-2027年全球大模型训练端峰值算力需求量的年复合增长率有望达到78.0%2023年全球大模型训练端所需全部算力换算成的 A100 芯片总量可能超过200万张。其次是推理侧单个 token 的推理过程整体运算量为2*大模型参数量因此大模型推理侧每日算力需求每日调用大模型次数*每人平均查询 Token 数量*2*大模型参数量仅以 Google 搜索引擎为例每年调用次数至少超过2万亿一旦和大模型结合其A1算力需求将十分可观。随着越来越多的应用和大模型结合推理侧算力需求也有望呈现爆发增长势头。根据我们的推算2023年-2027年全球大模型云端推理的峰值算力需求量的年复合增长率有望高达113%。
算力产业链价值放量顺序如下:先进制程制造-以chiplet为代表的 2.5D/3D封装、HBM-AI芯片-板卡组装-交换机-光模块-液冷-AI服务器-IDC 出租运维。
先进封装、HBM:为了解决先进制程成本快速提升和“内存墙”等问题Chiplet 设计异构先进封装成为性能与成本平衡的最佳方案台积电开发的CoWos封装技术可以实现计算核心与HBM 通过 2.5D封装互连因此英伟达 A100、H100等A1芯片纷纷采用台积电CoWos封装并分别配备40GBHBM2E、80GB的HBM3内存。全球晶圆代工龙头台积电打造全球 2.5D/3D 先进封装工艺标杆未来几年封装市场增长主要受益于先进封装的扩产。先进封装市场的快速增长有望成为国内品圆代工厂商(中芯国际)与封测厂商(长电科技、通富微电、甬矽电子和深科技)的新一轮成长驱动力。
AI芯片/板卡封装:以英伟达为代表今年二季度开始释放业绩。模型训练需要规模化的算力芯片部署于智能服务器CPU不可或缺但性能提升遭遇瓶颈CPUxPU异构方案成为大算力场景标配。其中GPU并行计算优势明显CPUGPU成为目前最流行的异构计算系统而NPU在特定场景下的性能、效率优势明显推理端应用潜力巨大随着大模型多模态发展硬件需求有望从GPU扩展至周边编解码硬件。A1加速芯片市场上英伟达凭借其硬件产品性能的先进性和生态构建的完善性处于市场领导地位在训练、推理端均占据领先地位。根据 Liftr nsights 数据2022年数据中心 A1 加速市场中英伟达份额达 82%。因此 A1 芯片需求爆发英伟达最为受益其 Q2收入指引 110亿美金预计其数据中心芯片业务收入接近翻倍。国内厂商虽然在硬件产品性能和*业链生态架构方面与前者有所差距,但正在逐步完善产品布局和生态构建,不断缩小与行业龙头厂商的差距并且英伟达、AMD对华供应高端 GPU芯片受限国产算力芯片迎来国产替代窗口期。当前已经涌现出一大批国产算力芯片厂商:1)寒武纪:国内人工智能芯片领军者持续强化核心竞争力:2)海光信息:深算系列GPGPU提供高性能算力升级迭代稳步推进:3)龙芯中科:自主架构CPU行业先行者新品频发加速驱动成长;4)芯原股份:国内半导体IP龙头技术储备丰富驱动成长:5)工业富联:提供GPU芯片板块组装服务。
交换机:与传统数据中心的网络架构相比A1数据网络架构会带来更多的交换机端口的需求。交换机具备技术壁垒中国市场格局稳定华为与新华三(紫光股份)两强争锐捷网络展现追赶势头建议重点关注。
光模块:AI 算力带动数据中心内部数据流量较大光模块速率及数量均有显著提升。训练侧光模块需求与GPU 出货量强相关推理侧光模块需求与数据流量强相关伴随应用加速渗透未来推理所需的算力和流量实际上可能远大于训练。目前训练侧英伟达的 A100 GPU 主要对应 200G光模块和 400G光模块H100 GPU 可以对应 400G或 800G光模块。根据我们的测算训练端 A100和 200G光模块的比例是1:7H100和800G光模块的比例是 1:3.5。800G 光模块 2022年底开始小批量出货2023 年需求主要来自于英伟达和谷歌。在 2023 年这个时间点市场下一代高速率光模块均指向 800G光模块叠加 AIGC 带来的算力和模型竞赛我们预计北美名大云厂商和相关科技巨头均有望在 2024年大量采购800G光模块同时2023年也可能提前采购。
光模块上游--光芯片:以 AWG、PLC等为代表的无源光芯片国内厂商市占率全球领先。以 EEL、VCSELDFB 等激光器芯片、探测器芯片和调制器芯片为代表的有源光芯片是现代光学技术的重要基石是有源光器件的重要组成部分。以源杰科技、光库科技为代表的国内光芯片厂商不断攻城拔寨在多个细分产品领域取得了较大进展国产替代化加速推进市场空间广阔。
液冷:AI大模型训练和推理所用的 GPU服务器功率密度将大幅提升以英伟达DGXA100服务器为例其单机最大功率约可达到6.5kw大幅超过单台普通CPU服务器500w 左右的功率水平。根据《冷板式液冷服务器可靠性白皮书》数据显示自然风冷的数据中心单柜密度一般只支持8kW-10kW通常液冷数据中心单机柜可支持 30kw 以上的散热能力,并能较好演进到 100kW 以上,相较而言液冷的散热能力和经济性均有明显优势。司时“东数西算” 明确 PUE(数据中心总能耗/T 设备能耗)要求枢纽节点 PUE要求更高同时考虑到整体规划布局未来新增机柜更多将在枢纽节点内风冷方案在某些地区可能无法严格满足要求液冷方案渗透率有望加速提升。目前在 A 算力需求的推动下如浪潮信息、中兴通讯等服务器厂商已经开始大力布局液冷服务器产品。
AI服务器:预计今年 Q2-03开始逐步释放业绩。具体来看训练型AI服务器成本中约7成以上中 GPU构成其余 CPU、存储、内存等占比相对较小均价常达到百万元以上。对于推理型服务器其 GPU 成本约为2-3成整体成本构成与高性能型相近价格常在 20-30万。根据IDC数据2022年全球 A1服务器市场规模 202亿美元同比增长 29.8%占服务器市场规模的比例为16.4%同比提升 1.2pct。我们认为全球 AI 服务器市场规模未来3年内将保持高速增长市场规模分别为395/890/1601亿美元对应增速96%/125%/80%。根据IDC数据2022年中国A1服务器市场规模67亿美元同比增长24%。我们预计2023-2025年结合对于全球 A1 服务器市场规模的预判以及对于我国份额占比持续提升的假设我国A服务器市场规模有望达到 134/307/561亿美元同比增长101%/128%/83%。竞争格局方面考虑到AI服务器研发和投入上需要更充足的资金及技术支持国内市场的竞争格局预计将继续向头部集中保持一超多强的竞争格局。重点推荐:1)浪潮信息:全球服务器行业龙头厂商其 AI服务器多次位列全球市占率第一:2)工业富联:为英伟达提供 H100 等芯片组装以及 A服务器生产:3)紫光股份:子公司新华三A服务器在手订单饱满同时可以提供交换机、路由器等:4)中科曙光:高性能计算及国产化服务器龙头;5)中兴通讯:服务器业务快速增长;6)拓维信息:华为昇腾鲲鹏核心合作伙伴:7)联想集团:全球领先的ICT设备企业。 报告共计98页
精选报告来源/公众号海选智库 本文仅供参考不代表我们的任何投资建议。海选智库整理分享的资料仅推荐阅读如需使用请参阅报告原文。