迭代每年进行四次,然后进行GPU!散热耗散的Microsoffai塞满了新鲜的流体核,射击了三次

Xin Zhiyuan编辑报告:QingQing [Xin Zhiyuan简介]当芯片作为炉子加热时,触发了电发票,延迟很慢,服务不活动。微软今天证明的杀人运动是打开芯片内部的液体血管,以便制冷剂可以到达加热核。如果这可以使价格保持较低,并且如果体验可以变得柔滑,那就是这场冷却革命所致。所有人都担心:AI变得越来越昂贵,但是ChatGPT订阅率每年增加吗?更令人讨厌的是,使用AI时,卡住并丢失链接更容易。肇事者实际上使芯片过热。新一代的AI芯片导致计算机功率被中断,传统的空气冷却和冷板几乎无法抑制。目前,Microsoft首席执行官Satya Nadella谈论了X。我们正在重新思考如何使芯片冷却以使未来的AI Infras归因更有效和可持续。 Microsoft宣布的“黑色技术”背后是“黑色技术”。将制冷剂直接发送到芯片体的小通道,从而提高热量耗散的效率最高三倍。它的外观可能是打破“热瓶颈”的关键。芯片主体:Microsoft AI的液体血管溶液越来越“热”。该模型的规模正在扩大,对计算机能源的需求增加,其背后的芯片就像在高温下运行的发动机一样。这些散热方法过去仍然可以通过冷和空气传输的板和冷的板几乎处于极限状态。在最近的Microsoft释放实验中,制冷剂直接发送到芯片的体内,硅晶片背面的grabando稀薄插槽,这使液体像血管一样流动,以消除来自喷泉的热量。这种“微流体冷却”听起来像科幻小说,而且经历了心理结果非常令人惊讶。根据微软揭示的数据,其热效率是冷板的热效率的三倍,其热效率在GPU内。温度升高可以降低65%。对于工程师而言,这意味着相同的硬件在温度下,允许沉重的负载,而不会强制较低的频率或不活动时间。到达这一点并不容易。在过去的一年中,Microsoft团队连续进行了四次连续迭代,以找到未锁定的微通道设计并保证芯片的力量。 Microsoft Cloud Operations and Innovation Systems的技术总监Husam Alissa是Frank。微流体冷却的降水冷却需要以系统心态了解硅,制冷剂,服务器和数据中心。 Microsoft云运营与创新系统技术总监Husam Alissa。为了让制冷剂用greate覆盖芯片的访问点精确,研究人员在AI的帮助下设计了仿生结构,该结构将其作为叶子的静脉分支,其效率超过了线性通道。微软还与瑞士初创公司Corintis合作解决了各种工程问题,包括雕刻,包装和泄漏保护。数据令人印象深刻,但最终取决于要验证的实际负载。微软选择了自己的团队作为测试场景。每小时或半点,会议的数量增加,服务器具有即时且高负载。根据传统冷却的解决方案,堆叠最硬件或风险核心的平板电脑总是很热。微流体冷却提供了另一种可能性,即在关键时刻安全地“过度流行”并抵制最大需求。微软技术研究人员的Jim Kleewein通过微流体冷却来提高成本,可靠性,速度和可持续性…几乎所有关键指标。一旦制冷剂真的flOWS到尖端的“小囊泡”,AI的下一个扩展给予了新的信心。炸薯条又热又热,但是AI仍在抓住它。你能做到吗? AI中的“热”不是特定的phor,而是一种真实的物理现象。每一代计算机食品芯片都会将能源消耗从数百美元增加到千瓦,而热量积聚为雪球。过去,数据中心仍然受到ANDL空气冷却和冷板的保护,但是在当今的最大负载下,这些技术正在逐渐增长。作为微软项目的负责人,萨希·马赛(Sashi Majety)在五年后警告说,如果他主要信任冷板技术,就会被困。不难理解这背后的原因。以数据中心为例,国际能源机构(IEA)报告说,它将从2024年的460TWH增长到2030年的1,000TWH,以满足数据中心电力的需求。让我们看一下T他的数据。根据国会研究服务局(CRS)的一份报告,美国数据中心在2023年消耗了约176TWH,占当年美国用电量的4.4%。随着未来几年的不断扩大,对这种冷却系统对Gran量表的支持将为基础设施能源消耗带来巨大的预算。冷斑块中热耗散的问题是热阻力和驱动损失。芯片堆积层和界面材料具有热电阻,这大大降低了国外传热的效率。随着芯片功率密度的增加,“中间层”变得更加严重,并且热量通常被困在芯片中。结果,制造商必须在设计中留下足够的利润或限制性能输出,以避免由于温度过高而造成的芯片降低或损坏。更糟糕的是,数据中心必须降低制冷剂温度,使冷板工作更好的。制冷本身所需的能耗是不能忽略的过载。例如,一些大型数据中心在冷却系统中使用了能耗,这代表了其一般能源消耗的很大一部分。在这个规模上,效率的重要性大大扩大了。 Microsoft的Azure Data Center进行了一次采访,ION硬件和基础设施系统副总裁Rani Borkar表示:一旦该规模达到,效率就非常重要。这种祈祷代表了整个行业的声音。任何可以提高效率的人首先在下一个计算机电源周期中进行主动行动。省钱不要迟到:Microsoft冷却技术的真正影响听起来像工程师的游戏,但是我们在AI中的经验和我们的经验确实会影响它。节省的能源法案可能是对会员率的培训和更大模型的实施。 AI的模型本质上是Pro当他们工作时,尤其是在云中的能量,以进行真实的推理。揭示了行业研究的比较,在不同规模的大规模语言模型中的推断能量消耗越大,模型越大,推断就越频繁地推断,消费就越重要。如果没有提高热量耗散效率,数据中心可以增加冷却系统或降低频率操作,这些成本最终达到了产品的价格。微软的内部新闻稿还说,微流体冷却可以将芯片内部温度的升高降低65%,最大的热耗散效率是冷板的三倍。这意味着您可以在同一环境中以低成本保持绩效。它不再是一个消耗能量的怪物,AI是更生态的Andyou也可以促进具有巨大能源需求的AI。麻省理工学院出现在报告中发电机的AI的受欢迎程度是按下数据中心中的电力和水等资源。与“消耗能量的怪物”相比,数据中心曾经有一段时间,但是在某些地区,它们的能源需求可能是成千上万的房屋。如果冷却技术更有效,它可以防止冷却系统的能源消耗过多,这可以减少能源和碳排放的总消耗。更有趣的是,Microsoft实验发现,即使在70°C下,微流体冷却仍然可以保持有效的操作,也就是说,这意味着没有必要将制冷剂降低至非常低的温度,例如传统的冷却方案,例如源代码的大量能源消耗。这是公司的大量能源。对于用户,每次使用AI时,环境负荷可能会较低。从队列到绘画,几秒钟:制冷剂更新背后的经验必须具有遭遇解决了这种情况。视频会议突然变得口吃,AI的图像的产生与海龟一样慢,并且模型的推断是半节拍。这些问题的一部分是由于它们被迫在过热后被迫减少或延迟处理。在测试中,微软选择了自己的团队进行实验。有趣的是,设备流量不会均匀分布。大多数会议以一个小时或平均值开始。结果如下:几分钟前,在那之后,控制会议的服务器很快被“拥挤”,负载突然超过了。在传统的热量消散下,必须堆叠的风险是只有几分钟的峰值,或者让芯片长时间在高温下运行。微流体冷却提供了另一种可能性,即“超频”可以在这些高峰时段安全地安全,从而使同样的硬件承认需求增加。对于用户,最多直观的变化是会议不再陷入困境,答案更快。因此,您不必担心在关键时刻失去链接。微软Abacus:它不仅要冷静下来,而且还急于获取未来的“流动制冷剂”科幻技术,听起来像科幻小说,但令人印象深刻。但是对于微软来说,这只是更大游戏的第一乐章。微软的真正目标是获得未来的AI基础架构。从资本支出来看,ISA的野心并没有被阻止。 2025财政年度的微软第四季度的财务报告显示,一季度的资本支出达到242亿美元,其中大多数直接投资于云和AI的基础设施。此外,媒体报道说,微软计划在下一个季度投资超过300亿美元,以扩大其云基础架构和AI。这将不再是“使用钱”,而是会建立发现的在未来20年内计算功率模式的拟合。到目前为止,微软分别推出了两种模型,分别是Cobalt 100和Maia,用于通用计算机科学和AI加速的研究芯片。如果微流体冷却是一种缓解“热量”的方式,则自我开发的芯片是保持紧密的控制。在网络级别,微软并非不活动。例如,支持纤维核孔的研究已将光学信号传递的损失降低到历史较低(约0.091 dB/km)。这被认为是光纤场中的进步。对于普通用户来说,这听起来很抽象,但是在数据中心中,这意味着服务器节点的通信速度更快,消耗能量更少并允许及时的AI响应。除了芯片和网络外,微软还专注于内存。沃尔克在一次采访中说,高带宽内存(HBM)目前是AI计算中的关键瓶颈之一。 Microsoft Maia筹码仍然取决于在商业HBM上,但将来他们正在探索更多的自我发展和优化的可能性。这表明微软的国际象棋游戏不仅仅是热量消散和炸土豆,但是默默地填充了整个计算机食品堆栈。为了总结这些难题,我们看到微软正在遵循“ 3行战斗”。冷却技术可以解决硬件的物理瓶颈,自我开发的芯片减少外部单元,而网络创新则开启了节点之间传输的效率。它不仅是一个软数据中心,而且是一个完整的生态系统,可以支持下一代AI的扩展。从整体上看,这是一场没有火药的军备竞赛。 Google使用液体浸入冷却来保护TPU,亚马逊是基于Graviton和培训来争夺市场的,而Meta是GPU’SNO,堆叠成本。微软选择的切口是在“热”中带头恩典成为战略谈判提示。因此,当您使用AI聊天,绘画和聚集在前面时,实际上是在增加基础架构的巨人。 Hemicrosoft微流体冷却不是终点,而是将来会发生的“开始冷却”。 AI的未来是“热门”竞赛。模型越大,芯片越热,能量消耗就越多。现在,微软将不仅要解决当前的热量耗散问题,还可以探索整个行业。如果您可以驯服发烧,则可以将计算机功率的上限提高到另一层。从实验室到数据中心,从资本支出到自我开发筹码,微软在其基础设施策略中写道“平静”。显然,超过热瓶颈的人首先更有可能在下一阶段掌握其计算机功率模式。随着人工智能变得越来越“热”,分叉可能是在下一个竞赛中冷静下来。请参阅:https://x.com/satyanadella/status/1970505474601820212Https://news.microfluidics-liquid-cooling-cooling-cooling-ai-ai-chips/htttp s: //www.bloomberg.com/news/articles/2025-09-23/microfluidics-is-to-te-the-the-microfluidics-to-the-cool-ow-ow-ai-ai-chips? SRND = PHX技术
特殊声明:先前的内容(包括照片和视频(如果有),如有)已由网络自我媒体平台的用户收费和发布。该平台仅提供信息存储服务。
通知:以前的内容(如果您有照片或视频)将由协作媒体平台NetEase Hao的用户加载和发布,仅提供信息存储服务。

此条目发表在每日更新分类目录。将固定链接加入收藏夹。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注