Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

神经符号人工智能或能解决大型语言模型中的幻觉问题

Posted on 2025-06-03

在当今的算法中添加一些传统的人工智能可能会带来人工智能的第三次浪潮。

大型科技公司在人工智能方面的实验,其主要问题并非在于它可能会接管人类。而是像 Open AI 的 ChatGPT、谷歌的 Gemini 和 Meta 的 Llama 这样的大型语言模型 (LLM) 持续出现错误,这个问题难以解决。

最突出的例子可能是美国法学教授乔纳森·特利 (Jonathan Turley) 的案例,他于 2023 年被 ChatGPT诬告性骚扰。

OpenAI 的解决方案似乎是通过对 ChatGPT 进行编程,使其无法回答有关 Turley 的问题,从而让 Turley 基本上“消失”。这显然不是一个公平或令人满意的解决方案。事后再逐一解决幻觉问题显然不是解决问题的办法。

法学硕士(LLM)放大刻板印象或给出西方中心主义答案的情况也是如此。面对这种普遍存在的错误信息,也完全缺乏问责,因为很难确定LLM最初是如何得出这种结论的。

在 OpenAI 法学硕士 (LLM) 开发的最新主要范式GPT-4 于 2023 年发布后,我们目睹了关于这些问题的激烈争论。可以说,这场争论自那时起已经冷却下来,尽管没有合理的解释。

例如,欧盟于2024年以创纪录的速度通过了《人工智能法案》 ,力争成为该领域监管的全球领导者。但该法案严重依赖人工智能公司的自我监管, 而并未真正解决相关问题。它并没有阻止科技公司向全球数亿用户发布法学硕士(LLM),并在未经适当审查的情况下收集他们的数据。

与此同时,最新的测试表明,即使是最复杂的法学硕士(LLM)也仍然不可靠。尽管如此,领先的人工智能公司仍然拒绝承担错误的责任。

遗憾的是,法学硕士(LLM)容易误导学生并重现偏见,这种现象无法通过循序渐进的改进来解决。随着代理人工智能(Agentic AI)的出现,用户很快就能将项目分配给法学硕士(LLM) ,例如预订假期或优化每月所有账单的支付方式,这无疑将使潜在的问题成倍增加。

新兴的神经符号人工智能领域可以解决这些问题,同时还能减少训练法学硕士所需的海量数据。那么,什么是神经符号人工智能?它是如何工作的?

法学硕士问题

LLM 使用一种名为深度学习的技术,它接收海量文本数据,并运用高级统计学方法推断出模式,从而确定任何给定答案中的下一个单词或短语应该是什么。每个模型及其学习到的所有模式都存储在大型数据中心的强大计算机阵列中,这些计算机被称为神经网络。

LLM 似乎可以使用一种称为思路链的过程进行推理,在此过程中,它们根据训练数据中看到的模式生成多步骤响应,模仿人类如何逻辑地得出结论。

毫无疑问,法学硕士(LLM)是一项伟大的工程成就。它们在总结文本和翻译方面令人印象深刻,或许能提高那些勤奋且知识渊博、能够发现错误的人的效率。然而,它们也有很大误导性,因为它们的结论总是基于概率,而不是理解。

一种流行的解决方法是“人机交互”:确保使用人工智能的人类仍然能够做出最终决策。然而,将责任归咎于人类并不能解决问题。他们仍然会经常被错误信息误导。

现在,法学硕士 (LLM) 需要大量的训练数据才能取得进展,以至于我们不得不向它们输入合成数据,也就是由 LLM 创建的数据。这些数据可能会复制并放大其自身源数据中现有的错误,从而使新模型继承旧模型的弱点。因此,在训练后对 AI 模型进行编程以提高其准确性(即事后模型对齐)的成本 正在飙升。

程序员也越来越难以发现哪里出了问题,因为模型思考过程的步骤数变得越来越大,纠正错误变得越来越困难。

神经符号人工智能将神经网络的预测学习与教授人工智能一系列正式规则相结合,人类学习这些规则后,能够更可靠地进行思考。这些规则包括逻辑规则,例如“如果 a 则 b”,它可以帮助算法学习“如果下雨,那么外面的所有东西通常都是湿的”;数学规则,例如“如果 a = b 且 b = c 则 a = c”;以及单词、图表和符号等事物的约定俗成的含义。其中一些规则将直接输入人工智能系统,而其他规则则将通过分析训练数据并执行“知识提取”自行推断。

这应该能够创造出一种永远不会产生幻觉的人工智能,它能够通过将知识组织成清晰、可重复使用的部分,从而学习得更快、更聪明。例如,如果人工智能有一条关于下雨时外面的东西是湿的规则,它就没有必要记住所有可能在外面被淋湿的例子——这条规则可以应用于任何新物体,即使是它从未见过的。

在模型开发过程中,神经符号人工智能还会通过一个称为神经符号循环的过程,将学习与形式推理相整合。这涉及一个经过部分训练的人工智能从其训练数据中提取规则,然后将这些整合的知识灌输回网络,然后再使用数据进行进一步训练。

这种做法更加节能,因为人工智能无需存储太多数据;同时,由于用户更容易控制其如何得出特定结论并随着时间的推移不断改进,人工智能也更加负责。此外,这种做法也更加公平,因为它可以遵循预先设定的规则,例如:“人工智能做出的任何决定,其结果都不能取决于个人的种族或性别。”

第三次浪潮

20世纪80年代人工智能的第一波浪潮被称为符号人工智能,其基础实际上是教会计算机形式化规则,然后让它们应用于新信息。2010年代,深度学习掀起了第二波浪潮,许多人认为神经符号人工智能是第三波浪潮。

在利基领域,将神经符号原理应用于人工智能是最容易的,因为规则可以清晰定义。因此,我们首次看到它出现在谷歌的AlphaFold ( 预测蛋白质结构以协助药物研发)和AlphaGeometry (解决复杂几何问题)中也就不足为奇了。

对于更广泛的人工智能模型,中国的 DeepSeek 使用了一种名为“蒸馏”的学习技术,这是朝着同一方向迈出的一步。但要使神经符号人工智能完全适用于通用模型,仍需要进行更多研究来完善其辨别一般规则和执行知识提取的能力。

目前尚不清楚法学硕士(LLM)的开发者们在这方面的研究进展如何。他们似乎确实在尝试教会他们的模型更聪明地思考,但他们似乎也执着于扩大规模以应对越来越大的数据量。

现实情况是,如果人工智能要继续进步,我们将需要能够仅通过几个例子就适应新事物的系统,能够检查其理解能力,能够执行多任务并重用知识以提高数据效率,并且能够以复杂的方式进行可靠推理。

这样一来,精心设计的数字技术甚至有可能成为监管的替代方案,因为制衡机制将被融入到架构之中,并可能在整个行业实现标准化。虽然还有很长的路要走,但至少前方还有一条路。

本文转载自《对话》(The Conversation) ,并遵循知识共享许可协议。阅读原文。

文章“神经符号人工智能可能是解决大型语言模型中幻觉问题的答案”首先出现在SingularityHub上。

原文: https://singularityhub.com/2025/06/02/neurosymbolic-ai-is-the-answer-to-large-language-models-inability-to-stop-hallucinating/

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Bits about Money
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • Elad Gil
  • Ellie Huxtable
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • Henrique Dias
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mostly metrics
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme