
Slashdot 的长期读者 hackingbear 写道:尽管面临美国的出口限制,但中国华为技术有限公司周六展示了一款可与 Nvidia 最先进产品相媲美的 AI 计算系统。CloudMatrix 384 系统在上海举行的世界人工智能大会 (WAIC) 上首次公开亮相,这是一场为期三天的活动,各家公司在会上展示了他们最新的 AI 创新,吸引了大批人群来到华为展位。据 SemiAnalysis 称,CloudMatrix 384 集成了 384 块华为最新的 910C 芯片,通过全对全拓扑结构进行光纤连接,在某些指标上优于 Nvidia 的 GB200 NVL72,后者使用 72 块 B200 芯片。完整的 CloudMatrix 系统现在可以提供 300 PFLOPs 的密集 BF16 计算能力,几乎是 GB200 NVL72 的两倍。 SemiAnalysis 的一份报告称,凭借超过 3.6 倍的总内存容量和 2.1 倍的内存带宽,华为和中国“如今的 AI 系统能力足以超越英伟达”。然而,代价是其功耗是 GB200 NVL72 的 4.1 倍,每 FLOP 功耗降低 2.5 倍,每 TB/s 内存带宽功耗降低 1.9 倍,每 TB HBM 内存容量功耗降低 1.2 倍。但 SemiAnalysis 指出,中国没有功耗限制,只有芯片限制。 SemiAnalysis 写道,Nvidia 曾宣布推出 DGX H100 NVL256 “Ranger” 平台(搭载 256 块 GPU),但“由于其价格过高、功耗高、可靠性低(需要大量光收发器和两层网络),最终决定不将其投入生产。CloudMatrix Pod 需要 6,912 个 400G LPO 收发器用于联网,其中绝大多数用于扩展网络。” 此外,在此次发布会上,中国电商巨头阿里巴巴发布了全新的旗舰开源推理模型 Qwen3-235B-A22B-Thinking-2507,据业内报告称,该模型“已超越关键行业基准,超越了谷歌和 OpenAI 等竞争对手的强大专有系统”。在 AIME25 基准测试(一项旨在评估复杂、多步骤问题解决能力的测试)中,Qwen3-Thinking-2507 取得了 92.3 分的惊人成绩。这使得它领先于一些最强大的专有模型,尤其是超越了谷歌的 Gemini-2.5 Pro,而 Qwen3-Thinking 在 LiveCodeBench 上获得了 74.1 的最高分,远远领先于 Gemini-2.5 Pro 和 OpenAI 的 o4-mini,证明了它对开发人员和工程团队的实用性。
在 Slashdot 上阅读更多内容。