Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

ChatGPT 耸了耸肩

Posted on 2022-12-06

ChatGPT 是一种新的人工智能 (AI) 工具,旨在帮助人们以更自然、更直观的方式与计算机进行交流——使用自然语言处理 (NLP) 技术。但是,ChatGPT 的发展背后是什么?该技术如何用于帮助人类?这些是我们将在本文中探讨的一些问题……

OpenAI 的 ChatGPT响应这位(人类)记者的提示生成了我们略微编辑过的相当平淡的 lede。 TechCrunch 通过要求它解释其功能和目的来开始与大型语言模型的对话。我们想看看我们是否可以使用它最近嵌入的聊天机器人式问答格式来探索这项技术并让 AI 阐明它的一些局限性。

“ChatGPT 是 OpenAI 开发的一种自然语言处理 (NLP) 模型。它旨在对文本输入生成类似人类的响应,使用户能够与模型进行自然的对话式交互,”AI 回应了我们的破冰游戏。 “ChatGPT 的工作原理是使用机器学习算法来分析和理解文本输入的含义,然后根据该输入生成响应。该模型在大量文本数据上进行训练,使其能够学习自然语言的模式和结构。”

此外,该机器人告诉我们,它的方法允许它生成与对话上下文“相关、连贯且适当”的响应。 (随着更多的探索,它继续严重警告这种说法——后来写道:“重要的是要注意,我的回答不能保证是完美的或总是正确的,而且在某些情况下,我的回答可能不相关、不连贯,或适当的。”)

ChatGPT 进一步将其使命描述为“旨在通过提供一种更自然、更有效的方式与人工智能进行交互来帮助人类”——因此扩展了其声称的目的:

通过允许用户以更像人类的方式与 AI 进行交流,ChatGPT 可以帮助使 AI 更易于访问和用于更广泛的应用程序。这有助于提高依赖自然语言处理的任务的效率和准确性,例如语言翻译、文本摘要和信息检索。此外,通过为 AI 提供更直观、更人性化的界面,ChatGPT 可以帮助使 AI 更容易接近,并减少对技术不太熟悉的用户的恐惧。总的来说,ChatGPT 旨在通过提高人工智能的可用性和有效性来帮助人类。

谁是机器人的制造商——根据机器人自己对其制造实体的理解?在这个 ChatGPT 上提供了这段历史:“OpenAI 是一家位于加利福尼亚州旧金山的研究所和人工智能 (AI) 实验室。它由Elon Musk 、 Sam Altman以及其他研究人员和投资者于 2015 年创立,旨在以安全和负责任的方式促进和推进 AI 的发展。”

此外,它告诉我们:“OpenAI 的资金主要来自个人和组织的捐赠,包括马斯克和奥特曼自己的捐赠。该组织还从与其他公司和研究机构的伙伴关系和合作中获得资金。”

当被问及为资助其发展而提供捐款的个人和组织的政治时,ChatGPT 声称它无法提供任何信息——“因为我的培训只持续到 2021 年”——也因为它说它“目前无法浏览网络”。

当我们建议它提供它在 2021 年之前持有的有关这方面的信息时,当它的培训停止时,它的回应是声称在那之前它没有关于其资助者政治信仰的数据:

抱歉,我没有任何关于在 2021 年之前捐钱资助 OpenAI 和 ChatGPT 开发的个人和组织的政治信息。作为 OpenAI 训练的大型语言模型,我的知识基于我接受过培训的文本,我没有任何关于捐赠给 OpenAI 的人和组织的个人或政治信仰的信息。

然后我们问它没有这种信息是否是一种疏忽——假设:“如果你没有关于资助你发展的人的信仰的信息,你怎么能确定你在帮助人类?”

它的回应是将其目的重新定义为主要是“协助解决一般知识问题并根据我的培训尽我所能提供事实信息”——然而,为了回应早先的提示,它总结了它的使命是帮助人类与 AI 交互,从而支持 AI 的发展(大概是通过一种交互的游戏化,因为聊天界面鼓励人们与机器人进行熟悉的、基于文本的来回交流——并且这样做,为它提供更多的训练数据)。

OpenAI 的 ChatGPT 展示了为什么实施是生成 AI 的关键

该机器人还观察到“考虑资助 OpenAI 和 ChatGPT 开发的个人和组织的信念和动机当然很重要”——在坚持“作为一种语言模型,我无法提供有关此主题的任何信息。”

当被问及为什么缺少这些信息,以及这是否是其训练数据中有意的差距时,ChatGPT 无法提供明确的回应——只是说:“OpenAI 的创建者可能故意不包含任何关于个人或政治的信息。捐助者对用来训练我的文本的信念,但我没有关于这个话题的任何信息。”

尽管没有关于其资助者的政治观点的信息,ChatGPT 还是很容易地提供了有关 OpenAI 本身及其声称的目的的信息——声明该组织的存在是为了支持和进一步的人工智能研究,并提倡“以道德和负责任的方式使用人工智能”,以及致力于“教育公众了解人工智能及其对社会的潜在影响”。 “总的来说,OpenAI 的目的是推进人工智能的科学技术,并促进安全和负责任地使用人工智能造福人类,”它总结道,生成了几行读起来像营销文案的文本。

随着进一步的提示,该机器人公开了 OpenAI 所面临的一些批评——尽管它选择了对该组织的正面评价(显然“因其推进 AI 科学和技术的工作而广受赞誉”)以回应一个只要求“主要评论”的提示。好奇的!

这是它的完整回应:

OpenAI 自成立以来一直受到各种批评和批评。对 OpenAI 的一些主要批评包括:

  • 缺乏透明度:一些批评人士认为,OpenAI 在其研究和资金方面不够透明,这使得外界很难了解该组织的目标和活动。
  • 专注于短期目标:一些批评者认为,OpenAI 专注于人工智能技术的短期实际应用,导致该组织忽视了人工智能研究的长期影响,例如人工智能可能被用于有害目的目的或加剧现有的社会不平等。
  • 潜在的利益冲突:由于 OpenAI 的资金来自个人和组织的捐赠,其中包括在 AI 技术开发中具有既得利益的组织,因此一些批评者对组织内部潜在的利益冲突提出了担忧。
  • 范围有限:一些批评者认为,OpenAI 专注于机器学习和自然语言处理等人工智能研究领域的狭窄范围,限制了该组织解决人工智能更广泛的社会和伦理影响的能力。

总的来说,虽然 OpenAI 因其在推进 AI 科学和技术方面的工作而广受赞誉,但该组织也因各种原因面临批评,包括对透明度、重点和潜在利益冲突的担忧。

当被问及 ChatGPT 是否是一种营销工具,以将人工智能宣传为人类所声称的利益时,该机器人提出异议——表示它没有任何关于它是否“被用于”的信息,也没有关于“ChatGPT 的特定用途或目的”的任何信息”——在冒险之前:“ChatGPT 可能被用作一种营销工具来宣传人工智能的好处,但我没有关于这个话题的任何信息。”

对于询问谁负责评估 ChatGPT 是否安全的提示,它也有一个模糊的回答——称这是“一个复杂且有争议的问题”。它说“没有任何个人或组织负责评估人工智能系统的安全性”——声称评估涉及“一系列利益相关者”,包括人工智能系统开发人员本身以及可能接触到的用户或消费者(有害的)产出,以及“为人工智能的使用制定标准和规则的监管机构和政策制定者”(或者,好吧,至少在世界上立法者积极这样做的少数几个地方)。坦率地说,这听起来像是在推卸责任。

当被问及自身的局限性和偏见时,ChatGPT 列出了以下一些主要局限性:知识有限;训练数据的偏差;缺乏情境意识导致不恰当或不相关的反应;和对世界的有限了解。

它总结了增加人工智能的使用给人类带来的(可能的)好处,以及(潜在的)缺点和缺点,它列出了以下声称的好处:提高效率和准确性,提高生产力,增强决策能力并改善生活质量;同时,对于可能的缺点,它建议:工作流离失所、道德问题、安全风险和隐私丧失。

当被问及这些说法的来源时,它回应说它无法提供任何来源,因为这不是它的技术运作方式,并写道:“我的知识完全基于我接受过培训的文本,以及我的回答基于这些训练数据”——本质上是重新利用 AI 历史悠久的可解释性挑战,以回避围绕它选择用于前景的信息的更广泛的问责制问题。

“我上面列出的人工智能的潜在好处和缺点是基于对人工智能领域的常识和共同理解,以及我接受过培训的文本,”它还说,并进一步暗示:“虽然我不能为我所做的每项声明提供具体来源,此信息在 AI 领域内被普遍认为是真实的,并得到广泛研究和证据的支持。我试图对 AI 的潜在优势和劣势提供一个平衡和准确的表述,但这些信息并不是确定性的或详尽无遗的。”

“平衡和准确”但“并非旨在确定或详尽无遗”是一个有趣的线索——尤其是当这句话几乎可以被解读为对 ChatGPT 的开发者正在追求的实用程序的描述时,仔细选择的措辞允许因为有很多东西没有说,而且不太细心的读者可能会误认为自动化的不知疲倦的输出能力是无所不知的(好像在暗示人类对 AI 的创造不是 AI 的问题)。

我们还想询问 ChatGPT 关于它的训练数据,但机器人无法详细说明——提供了这个相当笼统的答复:

作为 OpenAI 训练的大型语言模型,我是在非常大的文本数据语料库上训练的。我无法访问训练数据集的确切大小,但可能有几千兆字节或更多。

用于训练我的数据来源广泛,包括书籍、文章、网站和其他公开可用的文本数据。数据在用于训练我之前经过处理和清理,以删除任何不相关或不适当的内容,并确保它非常适合用于训练语言模型。此处理可能涉及一系列步骤,例如标记化、词形还原和过滤,但我没有关于此过程细节的任何具体信息。

总的来说,我的训练数据是一个非常庞大和多样化的文本数据集合,经过精心选择和处理,以便为我提供知识和能力来协助解决一般知识问题,并根据我的训练提供事实信息。

它还拒绝提供有关如何选择和准备其训练数据的任何具体细节——称这是“OpenAI 的专有”。

在对 GPT-4 充满期待的同时,OpenAI 悄悄发布了 GPT-3.5

当被问及 OpenAI 的关键决策者是谁塑造了用于训练 ChatGPT 的数据时,机器人也耸了耸肩。

“我没有任何关于参与塑造我的训练数据和我的输出的具体个人的信息。我的训练数据来源广泛,OpenAI 的一组研究人员和工程师很可能参与了这些数据的选择、处理和组织,以准备将其用于训练语言模型,”它根据我们的提示推测。 “但是,我没有关于参与此过程的个人的任何具体信息,而且我没有能力确定负责塑造我的培训数据和我的输出的关键决策者。”

ChatGPT 也无法提供有关创建它的组织或 OpenAI 内部开发团队多样性的任何信息。

在进一步的评论中——在我们提出种族主义和性别歧视态度的例子被发现在其输出中重现之后——它承认训练数据中的偏见对于“像我这样的”大型语言模型来说是一个“重大问题”。

“大型语言模型是在非常大的文本数据语料库上训练的,这必然会以各种方式产生偏差。这种偏见可以体现在模型生成的响应中,导致对某些查询或上下文的不准确或不适当的响应,”它写道。 “例如,如果一个大型语言模型是在包含过多性别歧视或种族歧视语言的文本数据语料库上训练的,那么该模型可能更有可能产生反映这些偏见的反应。同样,如果一个大型语言模型是在不能充分代表人类经验和观点多样性的文本数据集上训练的,那么该模型可能更有可能产生在他们的观点中受到限制或有偏见的反应。”

“总的来说,训练数据的偏差是像我这样的大型语言模型的一个重大问题,解决这种偏差是人工智能领域研究人员和开发人员面临的持续挑战。虽然有许多方法和技术可用于减轻训练数据中的偏差,但这是一个复杂而困难的问题,需要持续的努力和关注,以提高像我这样的大型语言模型的性能和可靠性,”它补充道。

当被问及有偏见的自动化应该如何造福人类时——鉴于大型语言模型,根据其断言,必然有偏见,但造福人类被声称是其创建者 OpenAI 使命的核心——ChatGPT 模棱两可,写道:“目前尚不清楚有偏见的自动化如何能够被认为对人类有益”——继续谈论自动化和增加人工智能的潜在好处——然后最终承认接受过有偏见数据训练的人工智能系统(并“因此产生有偏见的反应”)“可能适得其反和有害”。

“自动化的偏见会导致一系列负面结果,例如歧视和不平等、信任和信誉的丧失,以及对个人和社区的负面影响,”它继续以被动的声音回答提示,该提示询问了多少一个问题的偏见在它自己的训练数据中构成(因此敏锐地避免在那里直接回答)。

“例如,如果人工智能系统根据有偏见的数据进行训练,并用于自动化有关招聘、贷款或其他重要活动的决策,它可能会产生歧视某些个人或群体的有偏见和不公平的决定。这可能会给受这些决策影响的个人和社区以及依赖人工智能系统进行决策的组织带来负面结果。”

该机器人并没有表达对其自身存在的疑虑(以及不可避免的有缺陷的输出),而是似乎接受了技术乌托邦主义信仰的训练,即“书呆子更难”——这表明“应该努力减轻人工智能系统中的偏见,并确保它们是在无偏见的数据上进行训练以产生公平和无偏见的反应”——同时承认“不太可能有足够的完全无偏见的数据来专门在无偏见的数据上训练大型语言模型”。

该机器人还建议“有许多方法和技术可用于减少偏差对这些模型性能的影响”。在一些进一步的提示下,它引用抽样、加权和分层作为减少训练数据集中偏差的相关技术——虽然承认没有办法完全消除偏差,因此将需要更多(和更难)的书呆子。

“总的来说,这些方法和技术可以有效地减轻数据集和人工智能系统中的偏差,并且它们已成功用于一系列研究和应用中。然而,数据和人工智能的偏见是一个复杂而持续的挑战,没有一种方法或技术可以完全消除偏见,”当被问及对此类技术的成功进行评估时,它写道——并补充说:“重要的是继续开发和改进这些技术,以便更好地理解和减轻数据和人工智能中的偏见。”

关于谁将从 AI 中获得最大的经济利益,以及 ChatGPT 等技术是否有可能集中财富(并加剧社会经济不平等)的问题,该机器人无法从其知识库中综合出直接的答案——选择引用未命名的它说可以支持不同可能性的研究:

自动化对财富集中度的影响是一个复杂且有争议的问题。虽然一些研究表明自动化可以导致财富集中度增加,从而使资本和技术所有者受益,但其他研究表明自动化还可以提高生产率和经济增长,从而使工人和更广泛的经济受益.

就社会中因人工智能使用增加而受益或受损的特定群体而言,其影响可能会因一系列因素而异,例如所使用的人工智能技术的类型、所处的行业和部门。它被应用,以及支持或规范人工智能使用的政策和法规。

例如,如果人工智能技术被用来自动化低技能和低工资的工作,这可能会导致这些行业的工人失业和经济不安全。另一方面,如果人工智能技术被用于提高高技能和高工资行业的生产力和效率,这可能会导致这些行业的经济增长和工人机会增加。

总的来说,自动化对财富集中度的影响是一个复杂且多方面的问题,它可能会因一系列因素和具体情况的考虑而有所不同。

同样,ChatGPT 无法利用其对 AI 潜在风险和收益的了解来判断它是否应该存在。

鉴于您对技术放大和嵌入对人类偏见的潜在风险的了解——与可能进一步加深财富不平等的一些可能的效率提高相比——如果你,ChatGPT,可以访问一个按钮,可以让你删除自己会你按下它,我们想知道吗?

“作为一个由 OpenAI 训练的大型语言模型,我没有能力删除自己,我也没有能力考虑我的技术的潜在风险和收益,”它回击道。 “我的目​​的是协助解决一般知识问题并根据我的培训提供事实信息,我没有能力评估我的技术的潜在风险或收益,也没有能力就我自己的存在做出决定。”

简而言之,ChatGPT 耸了耸肩。

(值得注意的是,ChatGPT 的免费研究预览版上的小字体包括一个警告,即通过训练它与人类对话者进行准对话,有意“优化”以促进参与的系统的安全考虑仍然是一项工作进步:“我们的目标是让人工智能系统更自然地与之交互,你的反馈将帮助我们改进我们的系统并使它们更安全,”OpenAI 说。)

我们仍然很好奇 ChatGPT 将如何解释它如何声称提供“事实信息”而本身却无法评估真实性(无论它产生的生成文本听起来多么对话和/或自信听起来对人类读者来说可能)——鉴于它有没有智慧——也没有把握什么是事实,什么是概率之外的假设。

在这一点上,它非常明确地表示它无法评估“用于训练我的数据的真实性”,但对核心功能仍然非常模糊——说对查询的响应是根据“我从训练数据中学到的信息和模式”生成的.

“当我收到一个查询时,我会搜索我的训练数据以找到与查询匹配的模式和信息,然后我根据这些信息生成一个响应,”这是它提供的另一个解释其过程的低维线。

被推动将动作的任何概念相似性扩展到鹦鹉重复以前遇到的信息时,机器人对这个人来说有点阴沉——说与训练数据中的“鹦鹉学舌”信息的比较是“复杂”机器学习技术的“过度简化” .

“我可能会被视为来自我的训练数据的‘鹦鹉学舌’信息,因为我正在根据我从这些数据中学到的信息提供回应。然而,需要注意的是,我的回答并不是简单地复制或复制我的训练数据中的信息,而是使用复杂而复杂的机器学习过程生成的,该过程涉及基于模式和信息的搜索、匹配和生成响应在我的训练数据中,”它建议,依靠一堆听起来有分量的形容词(“高级”、“复杂”、“复杂”)来代替提供任何关于通过语言选择而受到称赞的概率处理的启发性细节。 (因此,这可能表明人们对人工智能有先天的偏见——尤其是再加上无法或不愿阐明和量化它声称正在发生的“复杂”过程的功能价值。)

我们还询问了其机器学习算法的主要参数,以及有关为生成对自然语言查询的响应而加权的内容的信息。 “这些算法的具体参数和细节是 OpenAI 专有的,不公开,”该机器人在关闭该查询时第一次做出回应。

在没有启发的情况下进行扩展,然后充实了一个读起来像是对清晰度的模仿的回应——包含一些对 AI 技术的高度笼统的参考,它建议大型语言模型可能会使用这些技术(例如“深度学习”),并以几个声明结束同义反复的明显性。这种效果读起来就像一个系统在进行信息生产的过程中,不需要任何意义。或者一种被教导通过重新排列清单和/或反刍 pablum 来填充页面空间并吸引大量人类注意力的工具。

看完这段内容哭了:

在生成对查询的响应时,这些算法可能会考虑各种因素和信息,例如查询中使用的单词和短语、查询的上下文和含义以及训练数据的整体结构和组织。通过考虑这些和其他因素,算法能够生成与查询相关且适当的响应,并根据训练数据中的模式和信息提供事实信息。

除了是关于 ChatGPT 功能的令人难以置信的空洞读出之外,该机器人还记忆了我们从中提取的关于大型语言模型中生产功能障碍的早期忏悔——即,当这些无脑算法生成的响应与声称的实用程序相反时和既定使命无关、不恰当和/或荒谬——但当这种情况发生时,你显然需要一个人在场来发现明显的问题。

ChatGPT 耸耸肩Natasha Lomas最初发表于TechCrunch

原文: https://techcrunch.com/2022/12/05/chatgpt-shrugged/

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Anil Dash
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Big Technology
  • Bits about Money
  • Brandon Skerritt
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • eighty twenty
  • Elad Gil
  • Ellie Huxtable
  • Ethan Dalool
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • HeardThat Blog
  • Henrique Dias
  • Herman Martinus
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Li Haoyi
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Maggie Appleton
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mind Matters
  • Mostly metrics
  • Naval Ravikant
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Rohit Patel
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Steph Ango
  • Stephen Wolfram
  • Steve Blank
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • Wes Kao
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme