微软今日发布了两款内部 AI 模型:MAI-Voice-1,一款现已在 Copilot 中上线的高速语音生成系统;以及 MAI-1-Preview,这是微软首个基于 15,000 块 H100 GPU 训练的端到端基础模型。Neowin 报道:MAI-Voice-1 是一款语音生成模型,目前已在 Copilot Daily 和 Podcasts 中上线。为了预览该语音模型的全部功能,微软创建了全新的 Copilot Labs 体验,任何人都可以立即试用。通过 Copilot Audio Expressions 体验,用户只需粘贴文本内容并选择语音、风格和模式,即可生成高保真、富有表现力的音频。他们还可以根据需要下载生成的音频。微软还强调,MAI-Voice-1 模型非常快速高效。事实上,它可以在单个 GPU 上在不到一秒的时间内生成一分钟的音频。此外,微软已开始在流行的社区模型评估平台 LMArena 上公开测试 MAI-1-preview。这代表了 MAI 首个端到端训练的基础模型,并展现了 Copilot 未来产品的雏形。他们正在积极推进改进模型的研发,并将在未来几个月内分享更多成果。MAI-1-preview 是一个 MoE(混合专家)模型,在近 15,000 块 NVIDIA H100 GPU 上进行了预训练和后训练。值得一提的是,MAI-1-preview 是微软首个内部端到端训练的基础模型。微软声称,该模型能够更好地遵循指令,并能为日常用户问题提供有用的解答。微软将在未来几周内将此新模型推广到 Copilot 中的特定文本用例。
在 Slashdot 上阅读更多内容。