中国储能网欢迎您!
当前位置: 首页 >新闻动态>国内新闻 返回

智算中心建设模式的颠覆与重构

作者:中国储能网新闻中心 来源:《通信世界》 发布时间:2025-07-01 浏览:

中国储能网讯:通信世界网消息(CWW)随着DeepSeek等大模型与生成式AI的快速演进,智能机器人、智能化科研、数字孪生、智慧城市、虚拟现实等应用场景日益丰富,智算需求呈“井喷式”增长,传统数据中心建设模式已难以满足新的发展要求,智算中心建设正成为数字经济蓬勃发展的新引擎。本文聚焦智算中心发展新形势,从弹性灵活、集约部署、绿色低碳、高效智能等维度深入分析基础设施建设模式的新变化,探究未来技术演进方向,以期为智算中心的建设与发展提供参考。

新形势催生智算中心新变革

在政策层面,国家对算力中心PUE(电能利用效率)的管控持续加码,绿色低碳成为智算中心建设的刚性约束。2024年,国家发展改革委、工业和信息化部等部门发布《数据中心绿色低碳发展专项行动计划》,明确提出到2025年底,新建及改扩建大型和超大型数据中心PUE降至1.25以内,国家枢纽节点数据中心项目PUE不高于1.2,可再生能源利用率年均增长10%,平均单位算力的能效和碳效显著提高。智算中心因高密度算力设备运行与高散热需求,能耗显著高于传统数据中心,需要通过液冷散热、余热回收、AI能效优化等技术革新,以及绿电交易、分布式储能等能源管理模式创新,降低PUE、CUE(碳排放效率),构建符合国家政策要求的绿色低碳基础设施。

在技术层面,上层业务需求倒逼智算中心“风、火、水、电”等底层基础设施加速变革。一方面,AI计算任务的复杂性和数据量的爆炸性增长,要求AI芯片具备更强处理能力和更高运算效率,其设计不断向更高集成度、更多核芯数、更高频率的方向发展,计算能力提升的同时功耗显著增加。另一方面,智算中心业务不确定性强、迭代变化快、流量峰谷波动显著,对供电制冷、监控运维等配套系统带来多重挑战。因此,实现基础设施、服务器、芯片、网络、应用间的高效协同与耦合成为重要方向。

弹性灵活

高密度集群化部署使得供电制冷系统的复杂程度显著增加。一方面,GPU芯片的热设计功耗从过去的百瓦级向千瓦级跃迁,单个机柜功率密度攀升至30~200千瓦,单体楼宇负载或达兆瓦级,亟需新型高效的供电架构。另一方面,智算中心的运算任务会使设备负载动态变化,如大规模AI模型训练时服务器集群的耗电量急剧上升,处理日常数据任务时负载相对较低。业务量波动和高功耗特性,驱动智算中心供电制冷系统须具备弹性灵活、快速响应业务变化的能力。

机房基础设施应综合考虑算力演进,适配多样化算力需求,按需支持多功率密度、多种制冷方案的弹性匹配。在规划设计方面,冷源、电源、机房应适当预留容量或空间,如增加地板出线孔数量、设计容量冗余、确保制冷方式兼容性、实施智能电力管理等。在末端部署上,机柜可采用智能小母线和智能PDU(电源分配单元)实现精细化电力分配、实时监测及智能化能源管理,提高配电系统的灵活性和运行效率。电力模块可采用“旁路满载供电+电池放电逆变补电”的混合模式,确保供电稳定。制冷方式可根据训练和推理业务的占比情况,选择适当比例的风液融合方案,构建机柜微模块、供电模块、制冷模块共用冷源,风冷、水冷、液冷同源且按需分配的架构,以支持算力的弹性部署与迭代演进。中国联通粤港澳大湾区枢纽(韶关)智算中心大规模集成AI调优、智能小母线、光伏、储能等技术,实现机房灵活部署、多场景设计及高扩展性,可适配4~20kW功率并为液冷高功率需求预留空间。

集约部署

AI服务场景业务要求响应速度快,建设模式呈现集约部署趋势。首先是建设部署预制化。传统数据中心建设周期长,通常需要三年以上,难以适应当前算力技术快速迭代和业务智能化升级需求。预制化模式通过标准化设计、工厂预制和现场组装,实现随需部署与弹性扩展,在有效缩短建设周期的同时减少建设过程碳排放,更能适应技术发展和市场需要。中联数据乌兰察布亚信数据港园区1号智算中心在建设过程中采用模块化设计,部署预制式氟泵空调机组、集装箱式柴油发电机组。

其次是产品设备集成化。以基础设施层供电系统为例,电力模块将电源转换单元、控制电路、保护装置、监测传感器等供电相关组件整合成功能完备的模块化单元,打破传统供电系统中各组件独立设置、相互连接的模式,实现供电功能的高度集成与优化。华为融合极简电力模块解决方案采用高密UPS和开创式融合架构设计,通过铜排预制缩短供电链路。维谛技术的Liebert@APM2系列大功率模块化UPS凭借超高双变换系统效率、较小占地面积和丰富灵活的配置,显著节约了运营成本。在IT层,应统筹规划软硬件集成,使基础设施与IT设备适配,避免重复建设和资源浪费,确保高效算力输出。目前,规划建设和设备部署的协同设计,以及供电制冷等机房基础设施如何更好匹配业务发展,进而支撑算存网发挥最大性能,也是重要的研究方向。

绿色低碳

中国信通院数据显示,截至2024年底,我国算力中心用电量超过1660亿kWh,未来几年仍将高速增长,2030年或超过4000亿kWh。智算中心的绿色低碳发展趋势正驱动商业模式创新:绿色低碳不仅是用户选购智算中心及算力服务的重要考量,也是企业服务方案的核心竞争力,应从基础设施、IT设备到算力平台、应用,进行全方位、全流程、全技术栈的能效优化与碳排放管理。在基础设施层,可通过布局绿色能源、开展绿电交易、应用“源网荷储”等技术,实现算力与绿色能源的协同发展。合盈数据在张家口地区开拓“绿电供绿产”模式,依托区域内的可再生能源、新型电力系统及储能配套设施,结合创新节能减排技术,使合盈数据(怀来)科技产业园实现充足稳定的绿电供应,CUE值处于较低水平。

在IT设备层,多项政策强调提升算力能效和碳效水平,应关注AI芯片、CPU、显存、带宽等设备的利用率,持续优化单位能耗的算力输出,充分发挥算力性能,减少算力设备的无效、低效运行时间。在平台侧,应通过灵活的算力资源选择与迁移能力、算力编排管理系统、碳排放监测与统计平台等,适应不断变化的应用需求和能效要求。蚂蚁集团GreenOps绿色减碳平台有效解决了大规模集群资源合理分配、分钟级有效调度、智能流量预测等行业难题,显著提升了资源利用率。从2017年到2023年,蚂蚁集团服务器CPU利用率增长了5倍。

高效智能

随着技术的飞速发展,运维架构也历经了显著变革。早期传统运维架构主要依靠人工运维,运维人员需要手动执行服务器配置、软件部署、故障排查等各类任务,效率低下且易出错。面对算力中心现场生产和远程集中化管理的运维需求,可借助动环监控、高效智能的DCIM等平台或工具,通过运维大模型等算法整合的方式实现自动化、智能化运维,并对执行过程进行监管。

在全面拥抱AI的今天,为确保智算中心满足AI业务高并发、海量数据处理、实时性要求高、模型迭代频繁的需求,行业应监控更多维度指标:不仅要关注服务器CPU、内存等常规指标,更要重点监控GPU利用率、显存占用、网络带宽时延等关键指标,同时跟踪模型训练进度、推理准确率等业务指标。因此,亟须构建更完善的联动运维机制,整合供电制冷、“算存运”等多源数据,实现智能分析与快速响应,以满足AI业务对智算中心的复杂运维需求。例如,普洛斯怀来大数据科技产业园采用自研GLP DCBASE智慧化运营系统,通过AI智能算法高效耦合运维管理系统,切实满足用户快速部署大规模算力集群的应用场景需求。

总体来看,智算中心历经早期探索、技术生态大爆发阶段,随着新变革的推进,今后将提供更成熟的社会级服务(如图1所示)。


图1智算中心演进的三个阶段

围绕六大特征持续演进

随着上层业务愈加复杂多元,智算中心算力性能和服务等软能力输出备受关注。智算中心将呈现高算力、高安全、高可用、高能效、智运营、优服务六大特征。在高算力方面,综合考量现存容量与带宽、互联技术及系统架构设计等因素下的真实有效算力表现。在高安全方面,从网络、数据、应用等层面构建完善的安全保障体系。在高可用方面,构建资源管控、故障分级、故障检测修复等全套能力,延长无故障运行时间。在高能效方面,从硬件、软件、平台、应用等维度构建全方位能效管理体系,优化单位算力的能效与碳效。在智运营方面,通过智能化管理平台、运维大模型等工具,实现从数据采集到预测性维护全流程的数智化。在优服务方面,适配业务场景提供灵活弹性的算存运服务,开展数据处理、模型迁移开发等,提高算力普适普惠服务水平。

未来,智算中心将围绕上述六大特征持续演进,成熟度内涵从基础设施、IT设备、软件平台向应用领域拓展,各系统高效协同与耦合的趋势不断深化,从而推动智算产业高质量发展。

分享到:

关键字:智算中心

中国储能网版权说明:

1、凡注明来源为“中国储能网:xxx(署名)”,除与中国储能网签署内容授权协议的网站外,未经本网授权,任何单位及个人不得转载、摘编或以其它方式使用上述作品。

2、凡本网注明“来源:xxx(非中国储能网)”的作品,均转载与其他媒体,目的在于传播更多信息,但并不代表中国储能网赞同其观点、立场或证实其描述。其他媒体如需转载,请与稿件来源方联系,如产生任何版权问题与本网无关。

3、如因作品内容、版权以及引用的图片(或配图)内容仅供参考,如有涉及版权问题,可联系我们直接删除处理。请在30日内进行。

4、有关作品版权事宜请联系:13661266197、 邮箱:ly83518@126.com