阿里巴巴集团研究人员开发了“ZeroSearch”技术,使大型语言模型在训练时无需使用外部搜索引擎即可获得搜索能力。该方法通过监督微调将法学硕士转变为检索模块,并采用“基于课程的推出策略”,逐渐降低生成的文档质量。在七个问答数据集的测试中,ZeroSearch 匹配或超过了使用真实搜索引擎训练的模型的性能 [PDF]。 7B 参数检索模块取得的结果可与 Google 搜索相媲美,而 14B 参数版本则优于 Google 搜索。节省的成本是巨大的:通过 SerpAPI 使用 Google 搜索进行 64,000 个搜索查询的训练将花费约 586.70 美元,而在四个 A100 GPU 上使用 14B 参数模拟 LLM 仅需 70.80 美元,节省了 88%。该技术适用于多个模型系列,包括 Qwen-2.5 和 LLaMA-3.2。研究人员已在 GitHub 和 Hugging Face 上发布了他们的代码、数据集和预训练模型,这可能会降低小型人工智能公司开发复杂助手的进入壁垒。
在 Slashdot 上阅读这个故事的更多内容。