对于其自己的创造者,出于营销的愤怒,曾经宣称“ 太危险”而不能向公众发布的产品,OpenAI 的 ChatGPT 这些天似乎无处不在。多功能自动文本生成 (ATG) 系统能够输出与人类作家的作品几乎没有区别的副本,官方仍处于测试阶段,但已经在数十种新颖的应用程序中使用,其中一些应用程序远远超出了角色ChatGPT 最初的目的是——就像那次它模拟一个可操作的 Linux shell或那次它通过沃顿商学院的入学考试一样。
围绕 ChatGPT 的炒作之高是可以理解的,无数初创公司都希望获得该技术的许可,用于从与历史人物交谈到与历史文献交谈,从学习其他语言到生成锻炼程序和餐厅评论的所有领域。
但随着这些技术进步,滥用和彻底伤害的机会也随之而来。如果我们之前在处理 deepfake 视频和音频技术传播方面的粗鲁尝试有任何迹象,那么我们对大规模、自动化的虚假信息生产将对我们的社会造成的破坏做好危险的准备不足。
OpenAI 的十亿美元起源故事
自 2015 年 Sam Altman、Peter Thiel、Reid Hoffman、Elon Musk 和许多其他 VC 名人作为非营利组织成立以来,OpenAI 一直很忙,他们共同投入了数十亿美元来启动和运行该组织. “ 利他主义”冒险认为,人工智能“应该是个人意志的延伸,并且本着自由的精神,应该尽可能广泛和均匀地分布。”
次年,该公司发布了OpenAI Gym强化学习平台的第一个公开测试版。马斯克于 2018 年辞去董事会职务,理由是与他对特斯拉的所有权存在潜在的利益冲突。 2019 年对 OpenAI 来说尤其多事。那一年,该公司在原来的非营利组织 (OpenAI Inc) 的基础上成立了一家“受限”的营利性子公司 (OpenAI LP),并获得了微软额外的 10 亿美元注资,并宣布计划开始对其产品进行商业许可。
2020 年,OpenAI 正式推出了 GPT-3,这是一种文本生成器,能够“ 总结法律文件、建议回答客户服务查询、提出计算机代码 [并] 运行基于文本的角色扮演游戏,”该公司发布了其商业 API那一年也是。
“我不得不说我被震撼了,”初创公司创始人 Arram Sabeti 当时在与系统交互后写道。 “它比我尝试过的任何 AI 语言系统都更加连贯。您所要做的就是写一个提示,它会添加它认为合理的文本。我用它来写歌、故事、新闻稿、吉他谱、访谈、散文、技术手册。这很有趣也很可怕。我觉得我看到了未来。”
2021 年发布了文本到图像生成器 DALL-E;该公司去年再次成为头条新闻,发布了基于 GPT-3.5 的聊天客户端 ChatGPT,这是最新和当前的 GPT 迭代。 2023 年 1 月,微软和 OpenAI 宣布通过一项多年、数十亿美元的持续投资来深化他们的研究合作。
“我认为它在吐出合理的文本方面做得非常出色,”CITRIS 政策实验室主任兼加州大学伯克利分校技术政策研究副教授 Brandie Nonnecke 博士告诉 Engadget。 “感觉就像真的有人写的一样。我自己实际上已经用它来克服作家的障碍,只是想一想我是如何融入我试图提出的论点的,所以我发现它很有帮助。”
也就是说,Nonnecke 不能忽视系统产生虚假声明的顽固习惯。 “它会引用不存在的文章,”她补充道。 “现在,在这个阶段,这是现实的,但还有很长的路要走。”
什么是生成式人工智能?
OpenAI 远非 ATG 游戏中的唯一玩家。生成式 AI(或更简洁地说,gen-AI)是使用机器学习算法根据标记示例数据库的训练语料库生成新颖内容(无论是文本、图像、音频还是视频)的实践。这是您的标准无监督强化学习方案,类似的方案已经在互联网上训练了Google 的 AlphaGo 、歌曲和视频推荐引擎,以及车辆驾驶员辅助系统。当然,虽然像 Stability AI 的 Stable Diffusion 或 Google 的 Imagen 这样的模型经过训练可以将随机点的分辨率逐渐提高的模式转换为图像,但像 ChatGPT 这样的 ATG 会重新混合从其训练数据中提取的文本段落,以输出令人怀疑的逼真,尽管通常是平淡无奇的散文。
“他们接受了大量输入的培训,”加州大学欧文分校电影与媒体研究教授彼得克拉普博士告诉 Engadget。 “结果或多或少是……该输入的平均值。它永远不会因为出类拔萃、特别聪明、美丽或熟练而给我们留下深刻印象。它总是会有点胜任——在某种程度上,我们所有人都在某种程度上有能力使用语言来表达自己。”
生成式人工智能已经是一门大生意。虽然像 Stable Diffusion 的制造商因从 Meta 或 ChatGPT 中窃取训练数据而被起诉以设法进入医学院(是的,除了沃顿商学院)这样的华而不实的事件成为头条新闻,但财富 500 强公司,如 NVIDIA、 Facebook 、亚马逊网络服务、IBM 和谷歌都在悄悄地利用 gen-AI 来为自己的商业利益服务。他们在许多应用程序中使用它,从改进搜索引擎结果和提出计算机代码到编写营销和广告内容。
ChatGPT 成功的秘诀
正如克拉普博士指出的那样,让机器像我们与其他人一样与我们交流的努力始于 1960 年代和 70 年代,语言学家是最早的采用者之一。 “他们意识到某些对话可以以某种方式进行建模,使它们或多或少是独立的,”他解释道。 “如果我可以与,你知道的,一个刻板的普通治疗师交谈,那就意味着我也可以对计算机进行编程以充当治疗师。”这就是Eliza 如何成为隐藏在流行的 Linux 文本编辑器 Emacs 中的 NLP 彩蛋。
今天,我们利用这些早期努力的技术成果为我们翻译高级餐厅的菜单,充当我们手机上的数字助理,并以客户服务代表的身份与我们聊天。然而,问题是要让 AI 执行这些功能中的任何一个,它必须经过专门训练才能完成那一件特定的事情。我们距离功能性通用人工智能还有数年的时间,但 ChatGPT 令人印象深刻的部分能力源于它能够轻松地写出中庸的诗歌,因为它可以用唐纳德特朗普的声音为真相社交网站生成一组虚假的服务条款,而无需两者之间需要专门的训练。
这种平淡无奇的灵活性是可能的,因为 ChatGPT 的核心是一个聊天机器人。它的设计首先是为了准确模仿人类对话者, 它实际上在 2020 年在 Reddit 上做了一周,然后才被淘汰。它使用监督学习方法进行训练,在这种方法中,人类训练员最初向模型提供给定对话的双方——人类用户和 AI 代理应该说的话。有了 robomind 的基础知识,ChatGPT 就可以与人类交谈,每次会话后都会对其回答进行排名。主观上更好的反应在模型的内部奖励系统中得分更高,随后进行了优化。这导致了 AI 的舌头能说会道,但“ 在插话之前只是浏览了 Wiki ”,具有事实核查的能力。
Foley & Lardner LLP 告诉 Engadget。 “我认为另一部分是它的易用性。你知道,普通人只要输入一些词就可以了。”
“以前对人工智能不感兴趣的人,并不真正关心它是什么,”现在开始注意到这一点。艾伦认为,它的易用性是一项资产,使 ChatGPT 成为“对那些可能不喜欢人工智能技术的人来说很有吸引力和有趣的东西”。
“这是一个非常强大的工具,”她承认道。 “我不认为它是完美的。我认为这显然存在一些错误,但是……它会让你完成 70% 到 80% 的工作。”
微软的ChatGPT会成为微软新一代的Taye吗?
但在最后的 20% 到 30% 中可能会出现很多错误,因为 ChatGPT 实际上并不知道它重新混合成新句子的单词的意思,它只了解它们之间的统计关系。 “GPT-3 炒作太过分了,”OpenAI 首席执行官萨姆奥特曼在 2020 年 7 月的推文中警告说。 “它令人印象深刻,但它仍然存在严重的弱点,有时还会犯非常愚蠢的错误。”
这些“愚蠢”的错误包括进行荒谬的比较,如“铅笔比烤面包机重”,以及我们在过去的聊天机器人(如 Taye)中看到的种族主义偏执——好吧,说实话,到目前为止,所有这些错误都是如此。 ChatGPT 的一些回复甚至鼓励其用户自我伤害,为公司和整个领域带来了一系列道德困境(不仅限于, AI 是否应该给科学研究加分?)。
ChatGPT 的滥用能力是巨大的。我们已经看到它用于生成垃圾邮件营销和功能性恶意软件以及撰写高中英语论文。与这项技术普及后可能出现的情况相比,这些只是微不足道的麻烦。
“我很担心,因为如果我们有深度伪造的视频和声音,将其与 ChatGPT 结合起来,它实际上可以写一些模仿某人说话风格的东西,”Nonnecke 说。 “这两件事加在一起只是一个用来制造虚假信息的火药桶。”
“我认为这是火上浇油,因为人们以特定的风格写作和说话,”她继续说道。 “这有时可以说明问题——如果你看到一个 deepfake,但它听起来不对劲,那就是他们谈论某事的方式。现在,GPT 听起来非常像个人,无论是他们如何写作和说话。我认为这实际上是在放大伤害。”
当前一代的名人冒充聊天机器人在历史上并不被认为是准确的(例如,亨利·福特的头像不是反犹太主义的),但未来的改进几乎可以消除现实与创造内容之间的界限。 “使用它的第一种方式很可能是欺诈,”Nonnecke 说,并指出诈骗者已经利用语音克隆软件冒充商标的亲属并从他们那里骗取钱财。
“最大的挑战将是我们如何适当地解决它,因为那些深度造假已经过时了。你已经感到困惑了,”Nonnecke 说。 “有时它被称为说谎者的红利:没有人知道这是不是真的,然后一切都是谎言,没有什么是可信的。”
ChatGPT 上大学
ChatGPT 也在学术界引起了轩然大波。文本生成器已经通过了沃顿商学院入学考试的笔试部分,以及美国医学执照考试的所有三个部分。反应迅速(正如大多数对新技术的惊慌失措的反应一样)但变化很大。纽约市公立学校系统采用传统方法,无效地“禁止”学生使用该应用程序,而宾夕法尼亚大学著名的沃顿商学院副教授 Ethan Mollick 博士等教育工作者已将其纳入他们的课程计划。
“这是一个突然的变化,对吧?我们将不得不以不同的方式做很多好事,但我认为我们可以解决我们如何教人们在 ChatGPT 的世界中写作的问题,”莫里克告诉一月份的美国国家公共电台。
“事实是,即使我不需要,我也可能无法阻止他们,”他补充道。相反,Mollick 让他的学生使用 ChatGPT 作为他们论文作业的提示和想法生成器。
UCI 的 Krapp 博士采用了类似的方法。 “我目前正在教几门课,我很容易说,‘好吧,这是我们的写作作业,让我们看看 ChadGPT 的结果,’”他解释道。 “我用不同的提示或部分提示做了五种不同的方法,然后让学生继续研究,’我们如何认识到这不是由人写的,我们可以从中学到什么?’。”
ChatGPT 是否适合您的写作工作?
今年年初,科技新闻网站CNET因使用自己设计的 ATG 生成整篇金融解释文章而被曝光——自 2022 年 11 月以来总共有 75 篇。据说这些帖子经过了人工“严格”的事实核查编辑们确保他们的输出是准确的,尽管粗略的检查发现了猖獗的事实错误,需要CNET及其母公司 Red Ventures 对超过一半的文章进行更正和更新。
BuzzFeed 的负责人乔纳·佩雷蒂 (Jonah Peretti) 看到CNET正在经历这种计算机生成的调情带来的灾难性后果后,立即决定也表态,宣布他的出版物计划使用 gen-AI 来创建低风险的内容,例如性格测验.
该消息是在BuzzFeed因“充满挑战的市场条件”而解雇了相当一部分编辑人员几周后发布的。这种巧合很难被忽视,尤其是考虑到目前科技和媒体行业正因这一特定原因而裁员浪潮席卷而来,即使这些企业集团本身的收入和收益都创下历史新高。
这不是新技术第一次取代现有工人。纽约时报专栏作家保罗·克鲁格曼 (Paul Krugman) 以煤矿开采为例。在整个 20 世纪,该行业出现了大规模的劳动力裁员,这并不是因为我们减少了煤炭的使用,而是因为采矿技术足够先进,以至于需要更少的人来完成同样数量的工作。汽车行业也出现了同样的效果,机器人取代了装配线上的人员。
“很难准确预测人工智能将如何影响对知识工作者的需求,因为它可能会有所不同,具体取决于行业和具体工作任务,”克鲁格曼认为。 “然而,在某些情况下,人工智能和自动化有可能比人类更有效地执行某些基于知识的任务,从而有可能减少对某些知识工作者的需求。”
不过,克拉普博士并不担心。 “我看到一些记者说,‘我很担心。我的工作已经受到数字媒体和数字发行的影响。现在,我擅长的写作类型可以通过计算机以更便宜的速度更快地完成,”他说。 “我不认为会发生这种情况。我不认为是这样。我认为,作为人类,我们仍然需要——渴望——在他人身上认识到他们的人性。”
“[ChatGPT] 令人印象深刻。玩起来很有趣,[但]我们还在这里,”他补充说,“我们还在阅读,它仍然是一个供人类消费、供人类享受的人形界面。”
不要害怕有人肯定会拯救我们,可能
ChatGPT 的共享现实粉碎尖牙最终将被封顶,Nonnecke 有信心,无论是通过国会还是行业本身来回应公众压力。 “我实际上认为两党都支持这一点,这在 AI 领域很有趣,”她告诉 Engadget。 “在数据隐私、数据保护方面,我们往往会得到两党的支持。”
她指出 2022 年由 OpenAI 安全和对齐研究员 Scott Aaronson 带头开发加密水印,以便最终用户可以轻松发现计算机生成的材料,这是该行业尝试自我监管的一个例子。
“基本上,每当 GPT 生成一些长文本时,我们希望在其单词选择中有一个不明显的秘密信号,你可以稍后用它来证明,是的,这来自 GPT,” Aaronson 在他的博客上写道。 “我们希望更难获取 GPT 输出并将其传递出去,就好像它来自人类一样。显然,这可能有助于防止学术剽窃,但也有助于大规模宣传。”
这种保障措施的效力还有待观察。 “现在,这非常像打地鼠,”Nonnecke 惊呼道。 “这是公司自己做出的 [适度] 决定。他们如何决定要阻止或不阻止什么类型的提示时没有透明度,这让我非常担心。”
“有人会用它来做可怕的事情,”她说。
原文: https://www.engadget.com/chatgpt-is-suddenly-everywhere-are-we-ready-180031821.html?src=rss