Nvidia联合创始人兼首席执行官黄仁勋今天在台北的 Computex 期间表示,他希望将生成式 AI 引入每个数据中心。在演讲中,黄仁勋表示,这是近四年来的首次公开演讲,他宣布了一系列公告,包括超级芯片的发布以及与大公司的合作伙伴关系。这是长达两个小时的主题演讲的所有新闻。
- Nvidia 面向游戏玩家的 GForce RTX 4080 Ti GPU 现已全面投产,并与台湾合作伙伴“大量”生产。
2. Huang 宣布推出适用于游戏的 Nvidia Avatar Cloud Engine (ACE),这是一种可定制的 AI 模型代工服务,为游戏开发人员提供预训练模型。它将通过 AI 支持的语言交互赋予 NPC 更多个性。
3. Nvidia Cuda计算模型现在服务于400万开发者和超过3000个应用程序。 Cuda 的下载量达到了 4000 万次,其中仅去年一年就达到了 2500 万次。
4. GPU 服务器 HGX H100 的全面量产已经开始,并且正在由“全台湾的公司”制造,Huang 说。他补充说,这是世界上第一台装有变压器引擎的计算机。
5. Huang 将英伟达 2019 年以 69 亿美元收购超级计算机芯片制造商 Mellanox 称为其有史以来做出的“最伟大的战略决策之一”。
6. 下一代 Hopper GPU 的生产将于 2024 年 8 月开始,也就是第一代开始生产两年后。
7. Nvidia 的 GH200 Grace Hopper 现已全面投产。超级芯片提升了 4 PetaFIOPS TE、72 个通过芯片到芯片链路连接的 Arm CPU、96GB HBM3 和 576 GPU 内存。 Huang 描述为世界上第一个具有巨大内存的加速计算处理器:“这是一台计算机,而不是芯片。”它专为高弹性数据中心应用而设计。
8. 如果 Grace Hopper 的内存不够用,Nvidia 有解决方案——DGX GH200。它是通过首先将八个 Grace Hoppers 与三个 NVLINK 交换机连接在一起,然后将 900GB 的 pod 连接在一起而制成的。最后,将 32 个连接在一起,再加上一层开关,连接总共 256 个 Grace Hopper 芯片。由此产生的 ExaFLOPS Transformer Engine 具有 144 TB 的 GPU 内存,可用作巨型 GPU。 Huang 说 Grace Hopper 速度非常快,可以在软件中运行 5G 堆栈。谷歌云、Meta 和微软将是第一批获得 DGX GH200 访问权限的公司,并将对其功能进行研究。
9. Nvidia 和软银已建立合作伙伴关系,将 Grace Hopper 超级芯片引入软银在日本的新分布式数据中心。他们将能够在多租户通用服务器平台中托管生成式人工智能和无线应用程序,从而降低成本和能源。
10. SoftBank-Nvidia 的合作伙伴关系将基于 Nvidia MGX 参考架构,该架构目前正在与台湾公司合作使用。它为系统制造商提供了一个模块化的参考架构,帮助他们构建 100 多个用于 AI、加速计算和全方位用途的服务器变体。合作的公司包括 ASRock Rack、Asus、Gigabyte、Pegatron、QCT 和 Supermicro。
11. Huang 宣布了 Spectrum-X 加速网络平台,以提高基于以太网的云的速度。它包括 Spectrum 4 交换机,它有 128 个端口,每秒 400GB 和每秒 51.2T。 Huang 说,该交换机旨在实现新型以太网,并设计为端到端以进行自适应路由、隔离性能和进行结构内计算。它还包括 Bluefield 3 Smart Nic,它连接到 Spectrum 4 交换机以执行拥塞控制。
12. 世界上最大的广告公司 WPP 已与 Nvidia 合作开发基于 Nvidia Omniverse 的内容引擎。它将能够制作用于广告的照片和视频内容。
13. 机器人平台 Nvidia Isaac ARM 现在可供任何想要构建机器人的人使用,并且是全栈的,从芯片到传感器。 Isaac ARM 从名为 Nova Orin 的芯片开始,是第一个机器人全参考堆栈,Huang 说。
很大程度上得益于其在 AI 计算领域的重要性,Nvidia 的股票在过去一年中飙升,目前市值约为 9600 亿美元,成为全球最有价值的公司之一(仅次于苹果、微软、沙特)阿美、Alphabet 和亚马逊排名更高)。
黄仁勋在 Computex 上由Catherine Shu宣布的所有 Nvidia 新闻最初发表于TechCrunch
原文: https://techcrunch.com/2023/05/28/nvidia-computex-jensen-huang/