金刚石冷却技术,获20亿元订单
人工智能的爆发,正在迅速改变全球数据中心的技术结构。在短短几年间,AI训练服务器的功耗水平不断攀升,从过去单卡300W左右跃升至700W甚至更高。随着大模型规模持续扩大,单个机架的功率密度也从传统数据中心的10–20kW快速迈向60kW乃至100kW以上。
这个过程中,一个原本被视为配套工程的问题逐渐成为限制算力释放的关键瓶颈——散热,而利用合成金刚石材料为AI服务器散热逐渐走向了产业化。
近期,美国公司Akash Systems宣布,其与服务器制造商MiTAC Computing Technology合作推出全球首批“钻石冷却”AI服务器,并已获得价值约3亿美元(约20.7亿人民币)的订单。据了解,这笔订单来自一家未披露名称的美国客户,不过业内认为可能是大型科技公司或数据中心运营商。

这一项目最受关注的并非服务器配置本身,而是其核心技术——Akash Systems提出的“Diamond Cooling®(钻石冷却)”方案。这一方案通过在GPU散热结构中引入合成钻石材料,使芯片产生的热量能够更快地扩散和导出,从而提升整体算力效率。
01
全球首台“钻石冷却AI服务器”
根据Akash Systems与MiTAC公布的信息,这套系统是全球首个采用钻石散热结构的AI服务器平台。整机核心算力基于AMD Instinct MI350X GPU,同时搭载双路AMD EPYC 9005处理器,并配备AMD Pensando Pollara 400网络接口卡以及ROCm软件栈。

从硬件架构来看,这是一套标准的高端AI训练服务器配置。但在散热结构上,该系统引入了Akash Systems开发的钻石热扩散层。该材料被嵌入在GPU散热堆叠结构中,形成新的热传导路径,使芯片产生的热量能够更快从热点区域扩散至更大的散热表面。
根据Akash Systems披露的数据,这种结构可以带来多个方面的性能改进。例如GPU和HBM内存温度最高可降低约10°C,同时服务器在相同功耗下可实现最高约22%的每瓦算力(FLOPs/W)提升,整体吞吐量在高温环境下可提升约15%。此外,系统甚至可以在约120°F(约48.8°C)的环境温度下保持稳定运行。
02
为什么是钻石?
在传统服务器散热体系中,芯片产生的热量通常通过热界面材料传导到铜散热器或冷板,再通过风冷或液冷系统带走。但随着AI芯片功耗持续增加,芯片内部热点温度迅速上升,而传统材料的热扩散能力逐渐接近极限。
Akash Systems提出的解决思路是利用合成钻石作为热扩散层。
钻石之所以适合作为散热材料,主要原因在于其极高的热导率。钻石的热导率通常可达到2000 W/m·K以上,而铜的热导率约为400 W/m·K,铝约为200 W/m·K。这意味着在相同条件下,钻石可以更快地将热量从芯片局部热点区域扩散出去。
Akash Systems表示,其钻石散热层能够实现比铜快约五倍的热扩散速度,从而大幅降低芯片热点温度。对于GPU而言,这种温度变化意义重大,因为现代AI加速器往往受到热节流机制限制。一旦温度过高,系统会自动降低频率以保护硬件。
如果散热能力能够大幅提高,GPU就可以在更长时间内维持最高频率运行,这正是Akash Systems所强调的“无降频运行”。
不过值得注意的是,钻石散热并不是要取代传统散热系统。相反,它更像是芯片封装层的一种增强材料,与现有的风冷或液冷系统协同工作。
03
AI数据中心的散热困局
钻石散热技术之所以受到关注,与当前AI数据中心面临的散热压力密切相关。
近年来,大模型训练规模不断扩大,推动AI服务器功耗持续上升。例如高端GPU服务器整机功耗已经接近甚至超过10kW,而大型AI集群往往包含数千甚至数万颗GPU。
在这样的规模下,散热系统成为数据中心设计中的核心环节。传统风冷架构在高功率密度场景下逐渐接近极限,因此越来越多的数据中心开始采用液冷系统,包括冷板液冷和浸没式冷却。
即便如此,芯片封装层的热扩散问题仍然存在。GPU内部热点温度过高,依然会影响实际算力释放。因此,从材料层面提升热扩散能力,成为新的技术方向。
在这一趋势下,钻石、石墨烯等高热导材料开始进入半导体散热研究领域。Akash Systems正是试图将这一材料路线从实验室带入数据中心。
04
从航天电子到AI服务器
Akash Systems成立于2018年,其技术最早并非用于数据中心,而是用于航天电子系统。
在卫星和航天器中,电子设备需要在极端温度环境下长期运行,因此对热管理材料的要求非常严格。钻石由于其高热导率和良好的化学稳定性,在航天电子散热中具有一定应用潜力。
Akash Systems最初开发的正是基于合成钻石的散热基板,并逐步将其应用扩展至高功率电子器件。
随着AI算力需求爆发,该公司开始将这一技术路线转向数据中心市场。此前,Akash Systems已经向印度数据中心运营商NxtGen Datacenter & Cloud Technologies交付了钻石冷却GPU服务器,该系统采用NVIDIA H200平台。
从产业发展路径来看,这种“航天技术向数据中心转移”的模式并不罕见。许多高端电子材料最初往往应用于航天、军工或科研领域,在技术成熟并逐步降低成本之后,才会进入商业电子产业。钻石散热材料如果能够在数据中心场景中证明其经济性和可靠性,也可能沿着类似路径逐步扩大应用规模。
05
散热技术进入多路线竞争阶段
需要看到的是,钻石散热并不是AI服务器散热领域唯一的技术路径。随着算力密度持续提升,数据中心的散热体系正在进入多技术路线并行探索阶段。
传统风冷架构在过去十多年里一直是主流方案,但在单机功耗不断上升的背景下,其散热能力已经逐渐逼近极限。为了解决高功率密度服务器的散热问题,液冷技术近年来迅速兴起,冷板液冷、浸没式冷却等方案开始在大型AI集群中逐步落地。一些超大型数据中心甚至将液冷视为未来基础设施的重要组成部分,因为相比风冷,液体具有更高的热容量和更高的热传导效率,可以在更小空间内带走更多热量。
然而,即便采用液冷系统,芯片封装层的散热问题依然存在。AI加速器内部往往存在极高的局部热流密度,热点区域的温度可能远高于平均温度,而这些热点往往正是限制芯片性能释放的关键因素。在这种情况下,仅依赖外部冷却系统并不能完全解决问题,如何在芯片内部结构中更高效地扩散热量,成为新的技术突破方向。
06
钻石散热的产业前景
尽管钻石散热技术已经开始进入商业部署阶段,但从产业发展阶段来看,这一技术仍然处于早期探索期。3亿美元规模的订单表明部分客户已经愿意尝试新的散热方案,但要真正成为主流技术,还需要在成本、可靠性以及规模化制造能力方面进一步验证。
尤其是在数据中心领域,技术路线的变化往往非常谨慎。服务器设备通常需要连续运行多年,因此任何新材料或新结构都必须经过严格的可靠性测试。同时,数据中心运营商也会非常关注整体成本结构,因为即便性能有所提升,如果材料成本过高,也可能影响大规模部署的可行性。
不过可以确定的是,随着AI算力需求持续增长,散热技术的重要性只会进一步提高。未来的数据中心可能会在多个层面引入新的散热材料和结构,从芯片封装到服务器架构,再到整个机房冷却系统,都会出现持续的技术创新。
在这样的背景下,钻石这种长期用于珠宝领域的物质,正在逐渐获得新的工程价值。如果合成钻石的制造成本能够随着技术进步而进一步下降,那么这种材料未来不仅可能出现在高端电子设备之中,也可能成为下一代数据中心基础设施的重要组成部分。

