AI时代算力需求不断提升,液冷散热或将成为降低服务器功耗的有效方案。站在全球视角,全球算力保持高速稳定增长态势。据华为GIV预测,2030年人类有望迎来YB数据时代,全球算力规模达到56000EFLOPS。站在中国视角,据工信部,2023年我国算力总规模达到180EFlops,保持高位增长。算力规模大幅提升带来AI服务器需求暴增,大量高功率CPU、GPU芯片将带动AI服务器功耗走高。当前数据中心制冷技术以风冷为主,考虑到机柜功率超过15kW为风冷能力天花板,而未来AI集群算力密度普遍超20kW/柜,升级液冷需求迫切。
© 版权声明
免费分享是一种美德,知识的价值在于传播;
本站发布的图文只为交流分享,源自网络的图片与文字内容,其版权归原作者及网站所有。
THE END
暂无评论内容