不断发布优秀产品和创新,同时让每个人都可以使用它们。以用户为中心,通过优质产品和服务,让用户的生活更为精彩! 坚持”利他”文化,做对用户和社会有价值、有长期利益的事情。在产品开发过程中,保持开放的心态
<已满18点转账应用软件特色:聚焦成人支付:转账软件的功能亮点与优势解析>
{随机干扰码}{随机干扰码}
AI导读
全球首批搭载英伟达GB300 NVL72芯片的算力怪兽已交付,推理性能提升50倍,液冷技术实现5倍能效比,AI竞赛正式进入“谁能更快、更便宜跑通模型”的新阶段。
内容由AI智能生成
硅谷的空气中再次弥漫起一种焦灼的味道,但这次不是来自模型的参数竞赛,而是来自物理世界的钢铁轰鸣。
3月16日,戴尔科技(Dell Technologies)正式宣布了一项足以载入AI发展史的交付:全球首批搭载英伟达GB300 NVL72芯片的PowerEdge XE9712服务器,已率先发往云计算巨头CoreWeave。这不是一次普通的产品迭代,而是Blackwell Ultra架构GPU正式走出实验室、迈向商业化战场的“第一枪”。
这台被网友戏称为“算力怪兽”的机器,集成了惊人的72颗GB300芯片,算力密度达到1000万亿次浮点运算/秒(1 Exaflop),推理性能较上一代H100系统提升了整整50倍。更恐怖的是,在液冷技术的加持下,其能效比提升了5倍,足以支持实时万亿参数大模型(LLM)的推理。
这一刻,AI竞赛的规则被彻底改写。如果说过去一年大家还在比拼“谁能训练出更大的模型”,那么从今天起,战争的焦点变成了“谁能更快、更便宜地跑通这些模型”。戴尔的这次“抢跑”,不仅让自己在硬件王座上稳如泰山,更给整个科技行业投下了一枚震撼弹。
一、 钢铁巨兽的诞生:当液冷成为必须,风冷成为历史
要理解PowerEdge XE9712的含金量,首先得理解“热密度”这个概念。
在传统的数据中心里,一个机柜的功率密度通常在8-12千瓦左右。但GB300 NVL72系统呢?仅仅是这一台服务器的功率就足以点亮一个小型社区。如果继续使用传统的风冷技术,你需要在机房里制造一场“飓风”才能吹散热量,而噪音和能耗将使其在经济上变得不可行。
戴尔给出的答案是:全面液冷。
这不仅仅是在服务器里加几根水管,而是对整个散热架构的重构。PowerEdge XE9712采用了直接芯片液冷(Direct-to-Chip)和浸没式冷却技术的混合变体。冷却液直接流过GPU和CPU的核心盖板,像血液带走热量一样,将废热通过热交换器排出。
“这是工程学的奇迹,也是无奈之举。”一位资深硬件工程师评价道,“因为GB300的晶体管密度太高了,高到空气已经无法承载它的热量。液冷不再是‘可选项’,而是‘必选项’。”
这种激进的散热设计带来了回报:5倍的能效比提升。这意味着,对于CoreWeave这样的云厂商来说,电费账单将直接腰斩。在电力成本占据数据中心运营成本40%以上的今天,这不仅是技术的胜利,更是财务报表的胜利。
二、 推理侧的“iPhone时刻”:从“能用”到“好用”
为什么业界如此兴奋?因为GB300解决的不是“训练”问题,而是“推理”问题。
过去两年,AI大模型的训练主要靠H100/A100堆砌,虽然昂贵但尚能维持。真正的瓶颈在于“推理”——当数亿用户同时向ChatGPT、Claude或文心一言提问时,系统能否在0.1秒内给出答案?
传统的推理方案往往面临两个痛点:要么速度慢(延迟高),要么成本高(单次调用贵)。而GB300 NVL72的出现,被业内称为AI推理侧的“iPhone时刻”。
72合一的算力怪兽:通过NVLink C2C技术,72颗GB300芯片被互联成一个逻辑上的“超级GPU”。这意味着,一个万亿参数的模型不需要被切分到几十台服务器上运行,而是可以完整地装进这一台机器的“显存”里。
50倍性能跃升:这意味着,以前需要100台H100服务器才能支撑的并发量,现在可能只需要2台GB300服务器。对于云厂商而言,这是指数级的成本下降。
实时交互成为可能:支持“实时万亿参数LLM推理”,意味着未来的AI助手将不再有“正在输入...”的转圈等待,而是像真人对话一样丝滑。
Marvell在最新的研报中预测,到2028年,AI加速芯片市场规模将达到3500亿美元。这其中的增量,绝大部分将来自于推理侧的爆发。谁能先铺好路,谁就能收过路费。戴尔此次抢先交付,无疑是在这条收费公路上占据了最好的收费站位置。
三、 赢家与输家:戴尔的“阳谋”与CoreWeave的野心
在这场交易中,戴尔和CoreWeave是最大的赢家,但他们的逻辑各不相同。
对于戴尔科技,这是一次久违的“肌肉展示”。在PC市场萎缩的背景下,戴尔通过服务器业务成功转型为AI基础设施的“军火商”。此次抢在惠普(HPE)和联想之前交付GB300整机,不仅证明了其与英伟达的深度绑定关系,更向市场宣告:在高端AI服务器领域,戴尔依然是不可撼动的王者。
对于CoreWeave,这更是一场生存之战。作为一家从加密货币挖矿转型而来的云厂商,CoreWeave最大的资产就是“算力”。在微软Azure和亚马逊AWS自研芯片、减少对外采购的背景下,CoreWeave必须通过提供最顶级的英伟达算力来吸引OpenAI、Inflection等大客户。拿到全球首批GB300,就是CoreWeave最硬的广告牌——“想用最强算力?只能来找我。”
而对于英伟达,这是其“CUDA护城河”的又一次加固。通过GB300这种极度复杂的系统集成,英伟达让竞争对手(如AMD和英特尔)更难追赶。因为对手不仅要造出好芯片,还要解决液冷、互联、系统集成等一系列工程难题。
四、 马太效应加剧:超算“平民化”是伪命题吗?
然而,在狂欢之余,争议也随之而来。最大的争议点在于:这种顶级算力的集中化,是否会扼杀创新?
当一台服务器的造价高达数百万美元,只有CoreWeave、微软、谷歌这样的巨头才买得起时,中小AI创业公司和独立开发者怎么办?
有观点认为,GB300的普及将加剧行业的“马太效应”:
模型差距拉大:巨头能用GB300训练出更聪明的模型,创业公司用老旧芯片训练的模型永远慢一拍。
应用壁垒增高:基于顶级模型的应用体验更好,用户会加速向头部应用聚集。
算力租赁垄断:云厂商掌握了定价权,中小企业的推理成本可能不降反升。
“这看起来像是算力的‘贵族化’,而不是平民化。”一位AI创业者担忧地表示。
但戴尔随后抛出的另一张牌,又给了开发者一丝希望——桌面级超级计算机。
戴尔同时推出了基于GB300架构的工作站版本(类似于以前的Precision系列),虽然性能缩水,但足以让单个开发者在本地运行千亿参数的模型。这被视为对英伟达“Project DIGITS”个人AI超算计划的回应。
“如果你买不起机房里的GB300,你可以买一台放在桌子上的。”戴尔高管在发布会上暗示。这或许是平衡算力垄断的唯一解药:让算力从“云端”下沉到“端侧”,让每个极客都能在自家书房里拥有以前国家级超算中心的算力。
五、 结语:算力即权力,竞赛才刚刚开始
戴尔向CoreWeave交付GB300服务器,不仅是一次商业交易,更是一个时代的注脚。它标志着AI产业正从“探索期”进入“基建期”。
在这个阶段,不再是靠几篇Paper就能震惊世界,而是靠实打实的电力、芯片和散热技术来堆砌竞争力。正如网友所调侃的:“以前拼算法,现在拼谁家电表转得快。”
对于中国市场而言,这既是压力也是动力。虽然我们在高端芯片制造上仍受制于人,但戴尔的液冷技术、系统集成能力以及CoreWeave的运营模式,都为我们提供了参考样本。国内的华为、浪潮、联想等厂商,必须在Blackwell Ultra架构全面铺开前,拿出同等量级的对抗产品。
3500亿美元的市场蛋糕已经摆在桌上,而GB300就是那把切蛋糕的刀。谁能握住这把刀,谁就能在未来十年的AI格局中,分到最大的一块。
这场算力军备竞赛,没有终点,只有更快的速度和更高的温度。而我们,正站在爆发的前夜。
2026-03-20 19:42:59AI导读
全球首批搭载英伟达GB300 NVL72芯片的算力怪兽已交付,推理性能提升50倍,液冷技术实现5倍能效比,AI竞赛正式进入“谁能更快、更便宜跑通模型”的新阶段。
内容由AI智能生成
硅谷的空气中再次弥漫起一种焦灼的味道,但这次不是来自模型的参数竞赛,而是来自物理世界的钢铁轰鸣。
3月16日,戴尔科技(Dell Technologies)正式宣布了一项足以载入AI发展史的交付:全球首批搭载英伟达GB300 NVL72芯片的PowerEdge XE9712服务器,已率先发往云计算巨头CoreWeave。这不是一次普通的产品迭代,而是Blackwell Ultra架构GPU正式走出实验室、迈向商业化战场的“第一枪”。
这台被网友戏称为“算力怪兽”的机器,集成了惊人的72颗GB300芯片,算力密度达到1000万亿次浮点运算/秒(1 Exaflop),推理性能较上一代H100系统提升了整整50倍。更恐怖的是,在液冷技术的加持下,其能效比提升了5倍,足以支持实时万亿参数大模型(LLM)的推理。
这一刻,AI竞赛的规则被彻底改写。如果说过去一年大家还在比拼“谁能训练出更大的模型”,那么从今天起,战争的焦点变成了“谁能更快、更便宜地跑通这些模型”。戴尔的这次“抢跑”,不仅让自己在硬件王座上稳如泰山,更给整个科技行业投下了一枚震撼弹。
一、 钢铁巨兽的诞生:当液冷成为必须,风冷成为历史
要理解PowerEdge XE9712的含金量,首先得理解“热密度”这个概念。
在传统的数据中心里,一个机柜的功率密度通常在8-12千瓦左右。但GB300 NVL72系统呢?仅仅是这一台服务器的功率就足以点亮一个小型社区。如果继续使用传统的风冷技术,你需要在机房里制造一场“飓风”才能吹散热量,而噪音和能耗将使其在经济上变得不可行。
戴尔给出的答案是:全面液冷。
这不仅仅是在服务器里加几根水管,而是对整个散热架构的重构。PowerEdge XE9712采用了直接芯片液冷(Direct-to-Chip)和浸没式冷却技术的混合变体。冷却液直接流过GPU和CPU的核心盖板,像血液带走热量一样,将废热通过热交换器排出。
“这是工程学的奇迹,也是无奈之举。”一位资深硬件工程师评价道,“因为GB300的晶体管密度太高了,高到空气已经无法承载它的热量。液冷不再是‘可选项’,而是‘必选项’。”
这种激进的散热设计带来了回报:5倍的能效比提升。这意味着,对于CoreWeave这样的云厂商来说,电费账单将直接腰斩。在电力成本占据数据中心运营成本40%以上的今天,这不仅是技术的胜利,更是财务报表的胜利。
二、 推理侧的“iPhone时刻”:从“能用”到“好用”
为什么业界如此兴奋?因为GB300解决的不是“训练”问题,而是“推理”问题。
过去两年,AI大模型的训练主要靠H100/A100堆砌,虽然昂贵但尚能维持。真正的瓶颈在于“推理”——当数亿用户同时向ChatGPT、Claude或文心一言提问时,系统能否在0.1秒内给出答案?
传统的推理方案往往面临两个痛点:要么速度慢(延迟高),要么成本高(单次调用贵)。而GB300 NVL72的出现,被业内称为AI推理侧的“iPhone时刻”。
72合一的算力怪兽:通过NVLink C2C技术,72颗GB300芯片被互联成一个逻辑上的“超级GPU”。这意味着,一个万亿参数的模型不需要被切分到几十台服务器上运行,而是可以完整地装进这一台机器的“显存”里。
50倍性能跃升:这意味着,以前需要100台H100服务器才能支撑的并发量,现在可能只需要2台GB300服务器。对于云厂商而言,这是指数级的成本下降。
实时交互成为可能:支持“实时万亿参数LLM推理”,意味着未来的AI助手将不再有“正在输入...”的转圈等待,而是像真人对话一样丝滑。
Marvell在最新的研报中预测,到2028年,AI加速芯片市场规模将达到3500亿美元。这其中的增量,绝大部分将来自于推理侧的爆发。谁能先铺好路,谁就能收过路费。戴尔此次抢先交付,无疑是在这条收费公路上占据了最好的收费站位置。
三、 赢家与输家:戴尔的“阳谋”与CoreWeave的野心
在这场交易中,戴尔和CoreWeave是最大的赢家,但他们的逻辑各不相同。
对于戴尔科技,这是一次久违的“肌肉展示”。在PC市场萎缩的背景下,戴尔通过服务器业务成功转型为AI基础设施的“军火商”。此次抢在惠普(HPE)和联想之前交付GB300整机,不仅证明了其与英伟达的深度绑定关系,更向市场宣告:在高端AI服务器领域,戴尔依然是不可撼动的王者。
对于CoreWeave,这更是一场生存之战。作为一家从加密货币挖矿转型而来的云厂商,CoreWeave最大的资产就是“算力”。在微软Azure和亚马逊AWS自研芯片、减少对外采购的背景下,CoreWeave必须通过提供最顶级的英伟达算力来吸引OpenAI、Inflection等大客户。拿到全球首批GB300,就是CoreWeave最硬的广告牌——“想用最强算力?只能来找我。”
而对于英伟达,这是其“CUDA护城河”的又一次加固。通过GB300这种极度复杂的系统集成,英伟达让竞争对手(如AMD和英特尔)更难追赶。因为对手不仅要造出好芯片,还要解决液冷、互联、系统集成等一系列工程难题。
四、 马太效应加剧:超算“平民化”是伪命题吗?
然而,在狂欢之余,争议也随之而来。最大的争议点在于:这种顶级算力的集中化,是否会扼杀创新?
当一台服务器的造价高达数百万美元,只有CoreWeave、微软、谷歌这样的巨头才买得起时,中小AI创业公司和独立开发者怎么办?
有观点认为,GB300的普及将加剧行业的“马太效应”:
模型差距拉大:巨头能用GB300训练出更聪明的模型,创业公司用老旧芯片训练的模型永远慢一拍。
应用壁垒增高:基于顶级模型的应用体验更好,用户会加速向头部应用聚集。
算力租赁垄断:云厂商掌握了定价权,中小企业的推理成本可能不降反升。
“这看起来像是算力的‘贵族化’,而不是平民化。”一位AI创业者担忧地表示。
但戴尔随后抛出的另一张牌,又给了开发者一丝希望——桌面级超级计算机。
戴尔同时推出了基于GB300架构的工作站版本(类似于以前的Precision系列),虽然性能缩水,但足以让单个开发者在本地运行千亿参数的模型。这被视为对英伟达“Project DIGITS”个人AI超算计划的回应。
“如果你买不起机房里的GB300,你可以买一台放在桌子上的。”戴尔高管在发布会上暗示。这或许是平衡算力垄断的唯一解药:让算力从“云端”下沉到“端侧”,让每个极客都能在自家书房里拥有以前国家级超算中心的算力。
五、 结语:算力即权力,竞赛才刚刚开始
戴尔向CoreWeave交付GB300服务器,不仅是一次商业交易,更是一个时代的注脚。它标志着AI产业正从“探索期”进入“基建期”。
在这个阶段,不再是靠几篇Paper就能震惊世界,而是靠实打实的电力、芯片和散热技术来堆砌竞争力。正如网友所调侃的:“以前拼算法,现在拼谁家电表转得快。”
对于中国市场而言,这既是压力也是动力。虽然我们在高端芯片制造上仍受制于人,但戴尔的液冷技术、系统集成能力以及CoreWeave的运营模式,都为我们提供了参考样本。国内的华为、浪潮、联想等厂商,必须在Blackwell Ultra架构全面铺开前,拿出同等量级的对抗产品。
3500亿美元的市场蛋糕已经摆在桌上,而GB300就是那把切蛋糕的刀。谁能握住这把刀,谁就能在未来十年的AI格局中,分到最大的一块。
这场算力军备竞赛,没有终点,只有更快的速度和更高的温度。而我们,正站在爆发的前夜。
2026-03-20 19:42:59AI导读
全球首批搭载英伟达GB300 NVL72芯片的算力怪兽已交付,推理性能提升50倍,液冷技术实现5倍能效比,AI竞赛正式进入“谁能更快、更便宜跑通模型”的新阶段。
内容由AI智能生成
硅谷的空气中再次弥漫起一种焦灼的味道,但这次不是来自模型的参数竞赛,而是来自物理世界的钢铁轰鸣。
3月16日,戴尔科技(Dell Technologies)正式宣布了一项足以载入AI发展史的交付:全球首批搭载英伟达GB300 NVL72芯片的PowerEdge XE9712服务器,已率先发往云计算巨头CoreWeave。这不是一次普通的产品迭代,而是Blackwell Ultra架构GPU正式走出实验室、迈向商业化战场的“第一枪”。
这台被网友戏称为“算力怪兽”的机器,集成了惊人的72颗GB300芯片,算力密度达到1000万亿次浮点运算/秒(1 Exaflop),推理性能较上一代H100系统提升了整整50倍。更恐怖的是,在液冷技术的加持下,其能效比提升了5倍,足以支持实时万亿参数大模型(LLM)的推理。
这一刻,AI竞赛的规则被彻底改写。如果说过去一年大家还在比拼“谁能训练出更大的模型”,那么从今天起,战争的焦点变成了“谁能更快、更便宜地跑通这些模型”。戴尔的这次“抢跑”,不仅让自己在硬件王座上稳如泰山,更给整个科技行业投下了一枚震撼弹。
一、 钢铁巨兽的诞生:当液冷成为必须,风冷成为历史
要理解PowerEdge XE9712的含金量,首先得理解“热密度”这个概念。
在传统的数据中心里,一个机柜的功率密度通常在8-12千瓦左右。但GB300 NVL72系统呢?仅仅是这一台服务器的功率就足以点亮一个小型社区。如果继续使用传统的风冷技术,你需要在机房里制造一场“飓风”才能吹散热量,而噪音和能耗将使其在经济上变得不可行。
戴尔给出的答案是:全面液冷。
这不仅仅是在服务器里加几根水管,而是对整个散热架构的重构。PowerEdge XE9712采用了直接芯片液冷(Direct-to-Chip)和浸没式冷却技术的混合变体。冷却液直接流过GPU和CPU的核心盖板,像血液带走热量一样,将废热通过热交换器排出。
“这是工程学的奇迹,也是无奈之举。”一位资深硬件工程师评价道,“因为GB300的晶体管密度太高了,高到空气已经无法承载它的热量。液冷不再是‘可选项’,而是‘必选项’。”
这种激进的散热设计带来了回报:5倍的能效比提升。这意味着,对于CoreWeave这样的云厂商来说,电费账单将直接腰斩。在电力成本占据数据中心运营成本40%以上的今天,这不仅是技术的胜利,更是财务报表的胜利。
二、 推理侧的“iPhone时刻”:从“能用”到“好用”
为什么业界如此兴奋?因为GB300解决的不是“训练”问题,而是“推理”问题。
过去两年,AI大模型的训练主要靠H100/A100堆砌,虽然昂贵但尚能维持。真正的瓶颈在于“推理”——当数亿用户同时向ChatGPT、Claude或文心一言提问时,系统能否在0.1秒内给出答案?
传统的推理方案往往面临两个痛点:要么速度慢(延迟高),要么成本高(单次调用贵)。而GB300 NVL72的出现,被业内称为AI推理侧的“iPhone时刻”。
72合一的算力怪兽:通过NVLink C2C技术,72颗GB300芯片被互联成一个逻辑上的“超级GPU”。这意味着,一个万亿参数的模型不需要被切分到几十台服务器上运行,而是可以完整地装进这一台机器的“显存”里。
50倍性能跃升:这意味着,以前需要100台H100服务器才能支撑的并发量,现在可能只需要2台GB300服务器。对于云厂商而言,这是指数级的成本下降。
实时交互成为可能:支持“实时万亿参数LLM推理”,意味着未来的AI助手将不再有“正在输入...”的转圈等待,而是像真人对话一样丝滑。
Marvell在最新的研报中预测,到2028年,AI加速芯片市场规模将达到3500亿美元。这其中的增量,绝大部分将来自于推理侧的爆发。谁能先铺好路,谁就能收过路费。戴尔此次抢先交付,无疑是在这条收费公路上占据了最好的收费站位置。
三、 赢家与输家:戴尔的“阳谋”与CoreWeave的野心
在这场交易中,戴尔和CoreWeave是最大的赢家,但他们的逻辑各不相同。
对于戴尔科技,这是一次久违的“肌肉展示”。在PC市场萎缩的背景下,戴尔通过服务器业务成功转型为AI基础设施的“军火商”。此次抢在惠普(HPE)和联想之前交付GB300整机,不仅证明了其与英伟达的深度绑定关系,更向市场宣告:在高端AI服务器领域,戴尔依然是不可撼动的王者。
对于CoreWeave,这更是一场生存之战。作为一家从加密货币挖矿转型而来的云厂商,CoreWeave最大的资产就是“算力”。在微软Azure和亚马逊AWS自研芯片、减少对外采购的背景下,CoreWeave必须通过提供最顶级的英伟达算力来吸引OpenAI、Inflection等大客户。拿到全球首批GB300,就是CoreWeave最硬的广告牌——“想用最强算力?只能来找我。”
而对于英伟达,这是其“CUDA护城河”的又一次加固。通过GB300这种极度复杂的系统集成,英伟达让竞争对手(如AMD和英特尔)更难追赶。因为对手不仅要造出好芯片,还要解决液冷、互联、系统集成等一系列工程难题。
四、 马太效应加剧:超算“平民化”是伪命题吗?
然而,在狂欢之余,争议也随之而来。最大的争议点在于:这种顶级算力的集中化,是否会扼杀创新?
当一台服务器的造价高达数百万美元,只有CoreWeave、微软、谷歌这样的巨头才买得起时,中小AI创业公司和独立开发者怎么办?
有观点认为,GB300的普及将加剧行业的“马太效应”:
模型差距拉大:巨头能用GB300训练出更聪明的模型,创业公司用老旧芯片训练的模型永远慢一拍。
应用壁垒增高:基于顶级模型的应用体验更好,用户会加速向头部应用聚集。
算力租赁垄断:云厂商掌握了定价权,中小企业的推理成本可能不降反升。
“这看起来像是算力的‘贵族化’,而不是平民化。”一位AI创业者担忧地表示。
但戴尔随后抛出的另一张牌,又给了开发者一丝希望——桌面级超级计算机。
戴尔同时推出了基于GB300架构的工作站版本(类似于以前的Precision系列),虽然性能缩水,但足以让单个开发者在本地运行千亿参数的模型。这被视为对英伟达“Project DIGITS”个人AI超算计划的回应。
“如果你买不起机房里的GB300,你可以买一台放在桌子上的。”戴尔高管在发布会上暗示。这或许是平衡算力垄断的唯一解药:让算力从“云端”下沉到“端侧”,让每个极客都能在自家书房里拥有以前国家级超算中心的算力。
五、 结语:算力即权力,竞赛才刚刚开始
戴尔向CoreWeave交付GB300服务器,不仅是一次商业交易,更是一个时代的注脚。它标志着AI产业正从“探索期”进入“基建期”。
在这个阶段,不再是靠几篇Paper就能震惊世界,而是靠实打实的电力、芯片和散热技术来堆砌竞争力。正如网友所调侃的:“以前拼算法,现在拼谁家电表转得快。”
对于中国市场而言,这既是压力也是动力。虽然我们在高端芯片制造上仍受制于人,但戴尔的液冷技术、系统集成能力以及CoreWeave的运营模式,都为我们提供了参考样本。国内的华为、浪潮、联想等厂商,必须在Blackwell Ultra架构全面铺开前,拿出同等量级的对抗产品。
3500亿美元的市场蛋糕已经摆在桌上,而GB300就是那把切蛋糕的刀。谁能握住这把刀,谁就能在未来十年的AI格局中,分到最大的一块。
这场算力军备竞赛,没有终点,只有更快的速度和更高的温度。而我们,正站在爆发的前夜。
2026-03-20 19:42:59AI导读
全球首批搭载英伟达GB300 NVL72芯片的算力怪兽已交付,推理性能提升50倍,液冷技术实现5倍能效比,AI竞赛正式进入“谁能更快、更便宜跑通模型”的新阶段。
内容由AI智能生成
硅谷的空气中再次弥漫起一种焦灼的味道,但这次不是来自模型的参数竞赛,而是来自物理世界的钢铁轰鸣。
3月16日,戴尔科技(Dell Technologies)正式宣布了一项足以载入AI发展史的交付:全球首批搭载英伟达GB300 NVL72芯片的PowerEdge XE9712服务器,已率先发往云计算巨头CoreWeave。这不是一次普通的产品迭代,而是Blackwell Ultra架构GPU正式走出实验室、迈向商业化战场的“第一枪”。
这台被网友戏称为“算力怪兽”的机器,集成了惊人的72颗GB300芯片,算力密度达到1000万亿次浮点运算/秒(1 Exaflop),推理性能较上一代H100系统提升了整整50倍。更恐怖的是,在液冷技术的加持下,其能效比提升了5倍,足以支持实时万亿参数大模型(LLM)的推理。
这一刻,AI竞赛的规则被彻底改写。如果说过去一年大家还在比拼“谁能训练出更大的模型”,那么从今天起,战争的焦点变成了“谁能更快、更便宜地跑通这些模型”。戴尔的这次“抢跑”,不仅让自己在硬件王座上稳如泰山,更给整个科技行业投下了一枚震撼弹。
一、 钢铁巨兽的诞生:当液冷成为必须,风冷成为历史
要理解PowerEdge XE9712的含金量,首先得理解“热密度”这个概念。
在传统的数据中心里,一个机柜的功率密度通常在8-12千瓦左右。但GB300 NVL72系统呢?仅仅是这一台服务器的功率就足以点亮一个小型社区。如果继续使用传统的风冷技术,你需要在机房里制造一场“飓风”才能吹散热量,而噪音和能耗将使其在经济上变得不可行。
戴尔给出的答案是:全面液冷。
这不仅仅是在服务器里加几根水管,而是对整个散热架构的重构。PowerEdge XE9712采用了直接芯片液冷(Direct-to-Chip)和浸没式冷却技术的混合变体。冷却液直接流过GPU和CPU的核心盖板,像血液带走热量一样,将废热通过热交换器排出。
“这是工程学的奇迹,也是无奈之举。”一位资深硬件工程师评价道,“因为GB300的晶体管密度太高了,高到空气已经无法承载它的热量。液冷不再是‘可选项’,而是‘必选项’。”
这种激进的散热设计带来了回报:5倍的能效比提升。这意味着,对于CoreWeave这样的云厂商来说,电费账单将直接腰斩。在电力成本占据数据中心运营成本40%以上的今天,这不仅是技术的胜利,更是财务报表的胜利。
二、 推理侧的“iPhone时刻”:从“能用”到“好用”
为什么业界如此兴奋?因为GB300解决的不是“训练”问题,而是“推理”问题。
过去两年,AI大模型的训练主要靠H100/A100堆砌,虽然昂贵但尚能维持。真正的瓶颈在于“推理”——当数亿用户同时向ChatGPT、Claude或文心一言提问时,系统能否在0.1秒内给出答案?
传统的推理方案往往面临两个痛点:要么速度慢(延迟高),要么成本高(单次调用贵)。而GB300 NVL72的出现,被业内称为AI推理侧的“iPhone时刻”。
72合一的算力怪兽:通过NVLink C2C技术,72颗GB300芯片被互联成一个逻辑上的“超级GPU”。这意味着,一个万亿参数的模型不需要被切分到几十台服务器上运行,而是可以完整地装进这一台机器的“显存”里。
50倍性能跃升:这意味着,以前需要100台H100服务器才能支撑的并发量,现在可能只需要2台GB300服务器。对于云厂商而言,这是指数级的成本下降。
实时交互成为可能:支持“实时万亿参数LLM推理”,意味着未来的AI助手将不再有“正在输入...”的转圈等待,而是像真人对话一样丝滑。
Marvell在最新的研报中预测,到2028年,AI加速芯片市场规模将达到3500亿美元。这其中的增量,绝大部分将来自于推理侧的爆发。谁能先铺好路,谁就能收过路费。戴尔此次抢先交付,无疑是在这条收费公路上占据了最好的收费站位置。
三、 赢家与输家:戴尔的“阳谋”与CoreWeave的野心
在这场交易中,戴尔和CoreWeave是最大的赢家,但他们的逻辑各不相同。
对于戴尔科技,这是一次久违的“肌肉展示”。在PC市场萎缩的背景下,戴尔通过服务器业务成功转型为AI基础设施的“军火商”。此次抢在惠普(HPE)和联想之前交付GB300整机,不仅证明了其与英伟达的深度绑定关系,更向市场宣告:在高端AI服务器领域,戴尔依然是不可撼动的王者。
对于CoreWeave,这更是一场生存之战。作为一家从加密货币挖矿转型而来的云厂商,CoreWeave最大的资产就是“算力”。在微软Azure和亚马逊AWS自研芯片、减少对外采购的背景下,CoreWeave必须通过提供最顶级的英伟达算力来吸引OpenAI、Inflection等大客户。拿到全球首批GB300,就是CoreWeave最硬的广告牌——“想用最强算力?只能来找我。”
而对于英伟达,这是其“CUDA护城河”的又一次加固。通过GB300这种极度复杂的系统集成,英伟达让竞争对手(如AMD和英特尔)更难追赶。因为对手不仅要造出好芯片,还要解决液冷、互联、系统集成等一系列工程难题。
四、 马太效应加剧:超算“平民化”是伪命题吗?
然而,在狂欢之余,争议也随之而来。最大的争议点在于:这种顶级算力的集中化,是否会扼杀创新?
当一台服务器的造价高达数百万美元,只有CoreWeave、微软、谷歌这样的巨头才买得起时,中小AI创业公司和独立开发者怎么办?
有观点认为,GB300的普及将加剧行业的“马太效应”:
模型差距拉大:巨头能用GB300训练出更聪明的模型,创业公司用老旧芯片训练的模型永远慢一拍。
应用壁垒增高:基于顶级模型的应用体验更好,用户会加速向头部应用聚集。
算力租赁垄断:云厂商掌握了定价权,中小企业的推理成本可能不降反升。
“这看起来像是算力的‘贵族化’,而不是平民化。”一位AI创业者担忧地表示。
但戴尔随后抛出的另一张牌,又给了开发者一丝希望——桌面级超级计算机。
戴尔同时推出了基于GB300架构的工作站版本(类似于以前的Precision系列),虽然性能缩水,但足以让单个开发者在本地运行千亿参数的模型。这被视为对英伟达“Project DIGITS”个人AI超算计划的回应。
“如果你买不起机房里的GB300,你可以买一台放在桌子上的。”戴尔高管在发布会上暗示。这或许是平衡算力垄断的唯一解药:让算力从“云端”下沉到“端侧”,让每个极客都能在自家书房里拥有以前国家级超算中心的算力。
五、 结语:算力即权力,竞赛才刚刚开始
戴尔向CoreWeave交付GB300服务器,不仅是一次商业交易,更是一个时代的注脚。它标志着AI产业正从“探索期”进入“基建期”。
在这个阶段,不再是靠几篇Paper就能震惊世界,而是靠实打实的电力、芯片和散热技术来堆砌竞争力。正如网友所调侃的:“以前拼算法,现在拼谁家电表转得快。”
对于中国市场而言,这既是压力也是动力。虽然我们在高端芯片制造上仍受制于人,但戴尔的液冷技术、系统集成能力以及CoreWeave的运营模式,都为我们提供了参考样本。国内的华为、浪潮、联想等厂商,必须在Blackwell Ultra架构全面铺开前,拿出同等量级的对抗产品。
3500亿美元的市场蛋糕已经摆在桌上,而GB300就是那把切蛋糕的刀。谁能握住这把刀,谁就能在未来十年的AI格局中,分到最大的一块。
这场算力军备竞赛,没有终点,只有更快的速度和更高的温度。而我们,正站在爆发的前夜。
2026-03-20 19:42:59AI导读
全球首批搭载英伟达GB300 NVL72芯片的算力怪兽已交付,推理性能提升50倍,液冷技术实现5倍能效比,AI竞赛正式进入“谁能更快、更便宜跑通模型”的新阶段。
内容由AI智能生成
硅谷的空气中再次弥漫起一种焦灼的味道,但这次不是来自模型的参数竞赛,而是来自物理世界的钢铁轰鸣。
3月16日,戴尔科技(Dell Technologies)正式宣布了一项足以载入AI发展史的交付:全球首批搭载英伟达GB300 NVL72芯片的PowerEdge XE9712服务器,已率先发往云计算巨头CoreWeave。这不是一次普通的产品迭代,而是Blackwell Ultra架构GPU正式走出实验室、迈向商业化战场的“第一枪”。
这台被网友戏称为“算力怪兽”的机器,集成了惊人的72颗GB300芯片,算力密度达到1000万亿次浮点运算/秒(1 Exaflop),推理性能较上一代H100系统提升了整整50倍。更恐怖的是,在液冷技术的加持下,其能效比提升了5倍,足以支持实时万亿参数大模型(LLM)的推理。
这一刻,AI竞赛的规则被彻底改写。如果说过去一年大家还在比拼“谁能训练出更大的模型”,那么从今天起,战争的焦点变成了“谁能更快、更便宜地跑通这些模型”。戴尔的这次“抢跑”,不仅让自己在硬件王座上稳如泰山,更给整个科技行业投下了一枚震撼弹。
一、 钢铁巨兽的诞生:当液冷成为必须,风冷成为历史
要理解PowerEdge XE9712的含金量,首先得理解“热密度”这个概念。
在传统的数据中心里,一个机柜的功率密度通常在8-12千瓦左右。但GB300 NVL72系统呢?仅仅是这一台服务器的功率就足以点亮一个小型社区。如果继续使用传统的风冷技术,你需要在机房里制造一场“飓风”才能吹散热量,而噪音和能耗将使其在经济上变得不可行。
戴尔给出的答案是:全面液冷。
这不仅仅是在服务器里加几根水管,而是对整个散热架构的重构。PowerEdge XE9712采用了直接芯片液冷(Direct-to-Chip)和浸没式冷却技术的混合变体。冷却液直接流过GPU和CPU的核心盖板,像血液带走热量一样,将废热通过热交换器排出。
“这是工程学的奇迹,也是无奈之举。”一位资深硬件工程师评价道,“因为GB300的晶体管密度太高了,高到空气已经无法承载它的热量。液冷不再是‘可选项’,而是‘必选项’。”
这种激进的散热设计带来了回报:5倍的能效比提升。这意味着,对于CoreWeave这样的云厂商来说,电费账单将直接腰斩。在电力成本占据数据中心运营成本40%以上的今天,这不仅是技术的胜利,更是财务报表的胜利。
二、 推理侧的“iPhone时刻”:从“能用”到“好用”
为什么业界如此兴奋?因为GB300解决的不是“训练”问题,而是“推理”问题。
过去两年,AI大模型的训练主要靠H100/A100堆砌,虽然昂贵但尚能维持。真正的瓶颈在于“推理”——当数亿用户同时向ChatGPT、Claude或文心一言提问时,系统能否在0.1秒内给出答案?
传统的推理方案往往面临两个痛点:要么速度慢(延迟高),要么成本高(单次调用贵)。而GB300 NVL72的出现,被业内称为AI推理侧的“iPhone时刻”。
72合一的算力怪兽:通过NVLink C2C技术,72颗GB300芯片被互联成一个逻辑上的“超级GPU”。这意味着,一个万亿参数的模型不需要被切分到几十台服务器上运行,而是可以完整地装进这一台机器的“显存”里。
50倍性能跃升:这意味着,以前需要100台H100服务器才能支撑的并发量,现在可能只需要2台GB300服务器。对于云厂商而言,这是指数级的成本下降。
实时交互成为可能:支持“实时万亿参数LLM推理”,意味着未来的AI助手将不再有“正在输入...”的转圈等待,而是像真人对话一样丝滑。
Marvell在最新的研报中预测,到2028年,AI加速芯片市场规模将达到3500亿美元。这其中的增量,绝大部分将来自于推理侧的爆发。谁能先铺好路,谁就能收过路费。戴尔此次抢先交付,无疑是在这条收费公路上占据了最好的收费站位置。
三、 赢家与输家:戴尔的“阳谋”与CoreWeave的野心
在这场交易中,戴尔和CoreWeave是最大的赢家,但他们的逻辑各不相同。
对于戴尔科技,这是一次久违的“肌肉展示”。在PC市场萎缩的背景下,戴尔通过服务器业务成功转型为AI基础设施的“军火商”。此次抢在惠普(HPE)和联想之前交付GB300整机,不仅证明了其与英伟达的深度绑定关系,更向市场宣告:在高端AI服务器领域,戴尔依然是不可撼动的王者。
对于CoreWeave,这更是一场生存之战。作为一家从加密货币挖矿转型而来的云厂商,CoreWeave最大的资产就是“算力”。在微软Azure和亚马逊AWS自研芯片、减少对外采购的背景下,CoreWeave必须通过提供最顶级的英伟达算力来吸引OpenAI、Inflection等大客户。拿到全球首批GB300,就是CoreWeave最硬的广告牌——“想用最强算力?只能来找我。”
而对于英伟达,这是其“CUDA护城河”的又一次加固。通过GB300这种极度复杂的系统集成,英伟达让竞争对手(如AMD和英特尔)更难追赶。因为对手不仅要造出好芯片,还要解决液冷、互联、系统集成等一系列工程难题。
四、 马太效应加剧:超算“平民化”是伪命题吗?
然而,在狂欢之余,争议也随之而来。最大的争议点在于:这种顶级算力的集中化,是否会扼杀创新?
当一台服务器的造价高达数百万美元,只有CoreWeave、微软、谷歌这样的巨头才买得起时,中小AI创业公司和独立开发者怎么办?
有观点认为,GB300的普及将加剧行业的“马太效应”:
模型差距拉大:巨头能用GB300训练出更聪明的模型,创业公司用老旧芯片训练的模型永远慢一拍。
应用壁垒增高:基于顶级模型的应用体验更好,用户会加速向头部应用聚集。
算力租赁垄断:云厂商掌握了定价权,中小企业的推理成本可能不降反升。
“这看起来像是算力的‘贵族化’,而不是平民化。”一位AI创业者担忧地表示。
但戴尔随后抛出的另一张牌,又给了开发者一丝希望——桌面级超级计算机。
戴尔同时推出了基于GB300架构的工作站版本(类似于以前的Precision系列),虽然性能缩水,但足以让单个开发者在本地运行千亿参数的模型。这被视为对英伟达“Project DIGITS”个人AI超算计划的回应。
“如果你买不起机房里的GB300,你可以买一台放在桌子上的。”戴尔高管在发布会上暗示。这或许是平衡算力垄断的唯一解药:让算力从“云端”下沉到“端侧”,让每个极客都能在自家书房里拥有以前国家级超算中心的算力。
五、 结语:算力即权力,竞赛才刚刚开始
戴尔向CoreWeave交付GB300服务器,不仅是一次商业交易,更是一个时代的注脚。它标志着AI产业正从“探索期”进入“基建期”。
在这个阶段,不再是靠几篇Paper就能震惊世界,而是靠实打实的电力、芯片和散热技术来堆砌竞争力。正如网友所调侃的:“以前拼算法,现在拼谁家电表转得快。”
对于中国市场而言,这既是压力也是动力。虽然我们在高端芯片制造上仍受制于人,但戴尔的液冷技术、系统集成能力以及CoreWeave的运营模式,都为我们提供了参考样本。国内的华为、浪潮、联想等厂商,必须在Blackwell Ultra架构全面铺开前,拿出同等量级的对抗产品。
3500亿美元的市场蛋糕已经摆在桌上,而GB300就是那把切蛋糕的刀。谁能握住这把刀,谁就能在未来十年的AI格局中,分到最大的一块。
这场算力军备竞赛,没有终点,只有更快的速度和更高的温度。而我们,正站在爆发的前夜。
2026-03-20 19:42:59小狐妖直播平台在哪里看:想收看小狐妖直播可通过哪些渠道进行观看?