极客中国芯吧 关注:52贴子:546
  • 0回复贴,共1

海光信息:互联总线协议开放解读 (来自韭研公社APP)

取消只看楼主收藏回复

全文摘要
1、HSL协议技术解析
·协议定义与类型:HSL全称为海光系统互联总线协议,是高带宽、低延时、可扩展内存语义的互联总线,支持内存语义(高性能、可扩展等)及任意类型互联。总线协议是互联协议主流类型之一,服务于硬件层面通信规则,是设备内部极近距离芯片、硬件数据地址和控制信号传输通道,负责硬件协作;IO扩展协议负责接口扩容,网络协议负责网络通用语言。HSL支持的互联类型有板级直连,如英伟达GB200、GB300、GH200的MGX架构中CPU与GPU的板卡级互联(英伟达Matrix计算板中GPU与CPU通过NVLink协议连接);以及通过Switch扩展,如Avian Link组网模式,可扩展机架节点数形成超节点布局。
·开放内容与优势:HSL开放内容包含三个层面:一是完整总线协议,涵盖协议层、传输层及兼容业界通用的物理层,其NI协议分基础功能(支持海光CPU互联)和扩展功能(支持基于PA的统一空间、统一对外接口、CPU加速器专用指令及虚拟地址翻译以实现统一高效内存池);二是丰富参考设计,包括IP参考设计、实现规范、节点参考设计、软件和系统参考设计,助于芯片厂商与海光CPU集成;三是开放指令集,类似“高速公路控制室”,支持硬件厂商深度协作交互、异构计算及ASIC相关协议。与典型PCIE总线对比,HSL优势显著:访问延迟降低约一半;支持自定义简化协议栈,提高效率;电路利用率更高;支持自由多链路扩展及缓存一致性,提升机柜系统及超节点效率。
·未来技术展望:当前HSL已开放协议,未来公司带宽数将持续提高,技术扩展进程将加速。
2、HSL生态赋能与战略意义
·对生态伙伴赋能:HSL协议对生态伙伴的赋能体现在多环节。芯片厂商如寒武纪、沐曦等,参与生态协议后可通过HSL协议实现AI芯片与海光CPU紧密耦合,形成高速加速平台,支持全局地址空间与一致性,便于GPU、AI芯片厂商与海光协作。OEM厂商(服务器整机厂商)可借总线标准开放,快速参与系统构建并推向市场;还能基于海光软硬件参考设计,快速定制超级节点系统或板级主板,海光及上下游可为HSL架构下的机柜与主板提供支持。模型应用厂商可获高效计算编程范式和统一内存编程模型,提升模型和应用效率。
·国家战略意义:HSL协议发布反映海光技术体系成熟与能力。海光及曙光生态肩负国家战略重任,未来将推进国家战略。该协议利于国产算力生态互联互通,助力构建自主可控计算底座。
·海外技术对比:对标海外,英伟达的NVLink是全球较优的点对点互联总线技术,自主研发,解决了PCIe总线在高端计算中的带宽瓶颈和延时问题。英伟达2014年推出NVLink,2016年在DGX 1上商用,初期带宽160GB,现第五代OmniLink带宽达1.8TB每秒,最多支持576个GPU互联。NVLink提升带宽、降低延时,使多GPU高效共享内存资源,是大模型训练与科学计算、AI产业发展的关键技术。海光未来开放CPU互联技术,有望加速国产生态构建。
3、业务影响与估值分析
·CPU业务市场空间:海光是中国服务器CPU的龙头公司,在信创市场的市占率达40%-50%,是国内国产CPU的龙头厂商之一。其产品在国内服务器市场的空间约1000亿,扩展至PC、工控等行业后可达2000-3000亿。此前市场多按1000亿估值,PC、工控潜力未完全体现在当前市值。理论上,综合CPU在服务器、PC及工控领域的业务,其市值应超2500亿,可达2500-3000亿。
·异构架构带来的增量空间:异构技术可提升海光CPU价值。英伟达GPU架构是2GPU+1CPU,传统H100服务器是8GPU+2CPU,CPU与GPU需求比例从4:1提升至2:1,CPU数量将翻倍。此前国产AI服务器机柜多基于英特尔、AMD或华为鲲鹏架构,若国产芯片围绕国产CPU异构设计,海光CPU市占率将攀升。预计该业务使海光CPU市值再翻倍,可达近5000亿。
·DCO产品前景分析:DCO是国内唯一全精度加速卡,需求涵盖多个10万卡级政府数据中心项目。在互联网侧,公司积极推进客户突破,有望在重点大客户取得进展。从性能和研发看,海光CPU和DPU的研发推进快于市场预期;供应链方面,其存货和预付款水平在A股半导体上市公司中处于头部,服务大型数据中心时产能供给能力强。
4、风险因素分析
·主要风险点:主要风险类型包括宏观经济影响、下游需求不及预期、人工智能发展不及预期、中美博弈加剧(原文‘家具’可能为笔误)以及新品研发不及预期等。(来自韭研公社APP)
https://www.jiuyangongshe.com/a/3xp8ujyj9tc


IP属地:天津1楼2025-09-22 12:51回复