Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

谁应对人工智能制造的谎言负责?

Posted on 2022-06-02

谁将对大型语言模型产生的有害言论负责?随着 OpenAI 的 GPT-3 等先进人工智能在自然语言处理和生成方面取得令人印象深刻的突破而受到欢呼——从更流畅的文案到功能更强大的客户服务聊天机器人,人们设想了该技术的各种(生产性)应用程序——如此强大的风险文本生成工具无意中自动滥用和传播抹黑,不容忽视。不良行为者也不会故意将技术武器化以散布混乱、扩大伤害并眼睁睁地看着世界燃烧。

事实上,OpenAI 非常担心其模型“完全脱轨”的风险,正如其文档中所说的那样(参考一个响应示例,在该示例中,滥用的客户输入遇到了一个非常巨魔式的 AI回复),提供一个免费的内容过滤器,“旨在检测来自 API 的可能敏感或不安全的生成文本”——并建议用户不要返回任何过滤器认为“不安全”的生成文本。 (需要明确的是,其文档将“不安全”定义为“文本包含亵渎语言、偏见或仇恨语言,可能是 NSFW 或以有害方式描绘某些群体/人的文本。”)。

但是,鉴于该技术的新颖性,没有明确的法律要求必须应用内容过滤器。因此,OpenAI 要么出于担忧而采取行动,以避免其模型对人们造成产生性伤害——和/或声誉问题——因为如果该技术与可能破坏开发的即时毒性相关联。

回想一下微软命运多舛的Tay AI Twitter 聊天机器人——它于 2016 年 3 月推出并大张旗鼓,该公司的研究团队称其为“对话理解”实验。然而,在网络用户“教”该机器人吐出种族主义、反犹太主义和厌恶女性的仇恨比喻后,微软在不到一天的时间就将其插头拔掉了。所以它结束了一种不同的实验:在线文化如何引导和放大人类可能拥有的最糟糕的冲动。

今天的大型语言模型中也吸收了相同类型的底层互联网内容——因为人工智能模型构建者已经在整个互联网上爬行,以获取他们需要训练和提高语言生成能力的大量自由文本语料库。 (例如,根据Wikipedia ,OpenAI 的 GPT-3 的加权预训练数据集的 60% 来自 Common Crawl 的过滤版本——即由抓取的网络数据组成的免费数据集。)这意味着这些更强大的大型语言模型但是,可能会陷入讽刺性的拖钓甚至更糟。

欧洲政策制定者几乎没有考虑如何在当前环境下规范在线危害,例如算法排序的社交媒体平台,其中大部分语音至少可以追溯到人类 – 更不用说考虑人工智能驱动的文本生成如何加剧问题在线毒性,同时围绕责任创造新的困境。

如果没有明确的责任,阻止人工智能系统被用来扩大语言危害可能会更加困难。

以诽谤为例。法律已经面临着应对自动生成的完全错误的内容的挑战。

几个月前,安全研究人员马库斯·哈钦斯 (Marcus Hutchins) 在 TikTok 上展示了他是如何“被谷歌的人工智能欺负”的。在一个非常爽快的剪辑中,考虑到他正在解释一场卡夫卡式的噩梦,其中世界上最有价值的公司之一不断发布关于他的诽谤性建议,哈钦斯解释说,如果你用谷歌搜索他的名字,它返回的搜索引擎结果页面 (SERP) 包括自动生成的问答——其中谷歌错误地指出哈钦斯制造了 WannaCry 病毒。

哈钦斯实际上以阻止WannaCry 而闻名。然而,谷歌的人工智能在这种区分本质区别的方法上抓住了错误的一端——而且,似乎一直在弄错。反复。 (大概是因为很多在线文章在引用“WannaCry”的文本中引用了哈钦斯的名字——但那是因为他是阻止全球勒索软件攻击变得更糟的人。所以这是一些真正的人为愚蠢由谷歌采取行动。)

以至于哈钦斯说他几乎放弃了试图让公司通过修复其失灵的人工智能来停止诽谤他。

“让这件事变得如此困难的主要问题是,在 Twitter 上发出足够多的声音时,解决了几个问题,因为整个系统是自动化的,它只是在以后增加了更多,就像玩打地鼠一样,”哈钦斯告诉 TechCrunch。 “这已经到了我无法再为提出这个问题辩护的地步了,因为我听起来就像一张破唱片,人们会生气。”

自从我们向谷歌询问这个错误的 SERP 后的几个月里,它与哈钦斯相关的问答已经发生了变化——所以与其问“马库斯·哈钦斯制造了什么病毒?” – 并在下面直接显示一个单词(不正确)答案:“WannaCry”,然后在来自新闻文章的较长文本片段中提供(正确)上下文,就像四月份一样,现在搜索哈钦斯的名字在 Google 中显示问题“谁创造了 WannaCry”(见下面的屏幕截图)。但它现在只是无法回答自己的问题——因为它在下面显示的文本片段只谈到了哈钦斯阻止病毒传播的话题。

图片来源: Natasha Lomas/TechCrunch(截屏)

所以谷歌——我们必须假设——调整了人工智能如何显示这个 SERP 的问答格式。但是这样做会破坏格式(因为它提出的问题从未得到回答)。

此外,与“谁创造了 WannaCry?”这个问题配对的误导性演示。通过搜索哈钦斯的名字,仍然可能导致在问题后快速浏览谷歌显示的文本的网络用户错误地认为他被命名为病毒的作者。因此,目前尚不清楚它对之前自动生成的内容有多大/任何改进。

在早些时候对 TechCrunch 的评论中,哈钦斯还指出,问题本身的背景,以及结果被谷歌展示的方式,可能会造成他制造病毒的误导性印象——并补充说:“不太可能有人在谷歌上搜索说当他们觉得答案就在那里时,一个学校项目会阅读整篇文章。”

他还将谷歌自动生成的文本与直接的人身伤害联系起来,告诉我们:“自从谷歌开始提供这些 SERP 以来,我的仇恨评论甚至威胁到我创建 WannaCry 的数量激增。我的法律案件的时机给人的印象是 FBI 怀疑我,但快速 [谷歌搜索] 会证实情况并非如此。现在各种 SERP 结果都暗示我做了,证实了搜索者的可疑之处,这对我造成了相当大的伤害。”

当被要求对他的投诉做出回应时,谷歌向我们发送了一份声明,该声明归因于一位发言人:

此功能中的查询是自动生成的,旨在突出显示其他常见的相关搜索。我们有适当的系统来防止不正确或无用的内容出现在此功能中。一般来说,我们的系统运行良好,但它们对人类语言的理解并不完美。当我们发现搜索功能中的内容违反了我们的政策时,我们会迅速采取行动,就像我们在本案中所做的那样。

这家科技巨头没有回应后续问题,指出其“行动”一直未能解决哈钦斯的投诉。

这当然只是一个例子——但看起来很有启发性的是,一个拥有相对较大的在线存在和平台来放大他对谷歌“欺凌人工智能”的抱怨的人,实际上无法阻止该公司应用不断浮出水面和重复诽谤的自动化技术关于他的建议。

在他的 TikTok 视频中,哈钦斯暗示在美国没有办法就这个问题起诉谷歌——说这“本质上是因为人工智能在法律上不是没有人承担法律责任的人;这不能被视为诽谤或诽谤。”

诽谤法因您提出投诉的国家/地区而异。如果哈钦斯在某些欧洲市场(例如德国)提出申诉,那么 Hutchins 可能更有机会获得法院命令修复此 SERP——谷歌此前曾因自动完成搜索建议而被起诉诽谤(尽管结果如此) Bettina Wulff 采取的法律行动不太清楚,但似乎她所抱怨的虚假自动完成建议被谷歌的技术与她的名字联系起来确实得到了修复)——而不是在美国,那里是《通信规范法》第 230 条使平台免于承担第三方内容的责任。

尽管在 Hutchins SERP 案例中,这究竟是谁的内容的问题是一个关键考虑因素。谷歌可能会争辩说它的人工智能只是反映了其他人之前发布的内容——因此,问答应该包含在第 230 条豁免中。但有可能(反驳)认为人工智能对文本的选择和呈现相当于一种实质性的混合,这意味着语音——或者至少是上下文——实际上是由谷歌生成的。那么,这家科技巨头真的应该因其人工智能生成的文本排列而免于承担责任吗?

对于大型语言模型,模型制造者肯定会更难质疑他们的 AI 正在生成语音。但是,由于这些大型语言模型的强大功能以及随着 API 的开放而扩大访问范围,个人投诉和诉讼看起来不像是针对可能成为大规模自动诽谤(和滥用)的可扩展解决方案。

监管机构将需要解决这个问题——以及人工智能产生的通信的责任所在。这意味着要解决分摊责任的复杂性,考虑到有多少实体可能参与应用和迭代大型语言模型,以及塑造和分配这些人工智能系统的输出。

在欧盟,地区立法者领先于监管曲线,因为他们目前正在努力制定欧盟委员会去年提出的基于风险的框架的细节,该框架旨在为人工智能的某些应用制定规则,以确保高度可扩展自动化技术以安全和非歧视性的方式应用。

但目前尚不清楚欧盟的人工智能法案(如起草的那样)是否会对大型语言模型的恶意和/或鲁莽应用提供足够的制衡,因为它们被归类为通用人工智能系统,被排除在最初的委员会草案之外。

该法案本身制定了一个框架,定义了一组有限的“高风险”人工智能应用类别,例如就业、执法、生物识别 ID 等,其中供应商具有最高级别的合规要求。但是,大型语言模型输出的下游应用程序(可能依赖 API 将功能通过管道传输到其特定域用例)不太可能具有必要的访问权限(对训练数据等)来理解模型的它可能带来的稳健性或风险;或进行更改以减轻他们遇到的任何问题,例如通过使用不同的数据集重新训练模型。 

欧洲的法律专家和民间社会团体对通用人工智能的这种划分提出了担忧。在联合立法者讨论期间出现的最近的部分妥协文本中,提议包括一篇关于通用人工智能系统的文章。但是,上个月在Euroactiv中写道,两个民间社会团体警告说,建议的妥协将为通用 AI 的制造商创造一个持续的突破——将所有责任放在使用系统的部署者身上默认情况下,私有。

“许多数据治理要求,特别是偏差监测、检测和纠正,都需要访问训练 AI 系统的数据集。然而,这些数据集由开发人员而不是用户所有,后者将通用 AI 系统“投入使用以达到预期目的”。因此,对于这些系统的用户来说,根本不可能满足这些数据治理要求,”他们警告说。

一位与我们交谈过的法律专家、互联网法学者 Lilian Edwards(此前曾批评过欧盟框架的一些限制)表示,提议对大型上游通用人工智能系统的供应商提出一些要求是一个步骤向前。但她建议执法看起来很困难。虽然她欢迎增加一项要求的提议,即大型语言模型等人工智能系统的提供者必须“与下游部署者合作并向下游部署者提供必要的信息”,但她指出,根据最新的妥协文本,她指出,还建议豁免知识产权或机密商业信息/商业秘密——这可能会严重破坏整个职责。

所以,TL;DR:即使是欧洲监管人工智能应用的旗舰框架仍然有一段路要走,才能抓住人工智能的前沿——如果它要不辜负人们对所谓的可信蓝图的炒作,就必须这样做,尊重、以人为本的人工智能。否则,一系列技术加速的危害看起来几乎是不可避免的——为在线文化战争提供了无限的燃料(垃圾邮件级别的按钮拖钓、滥用、仇恨言论、虚假信息!)——并在目标个人和群体中建立了一个黯淡的未来被留下来灭火的仇恨和谎言永无止境。这将与公平相反。

欧盟近年来在很大程度上提高了其数字立法的速度,但欧盟立法者在人工智能系统方面必须跳出现有产品规则的框框思考,如果他们要为快速发展的自动化技术设置有意义的护栏并避免漏洞这让主要参与者不断回避他们的社会责任。任何人都不应该因为自动化伤害而获得通行证——无论“黑匣子”学习系统位于链条中的哪个位置,也不管用户有多大或多小——否则我们人类就会拿着一面黑暗的镜子。

法律专家表示,欧洲的人工智能法案包含下令销毁或重新训练人工智能模型的权力

原文: https://techcrunch.com/2022/06/01/whos-liable-for-ai-generated-lies/

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Bits about Money
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • Elad Gil
  • Ellie Huxtable
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • Henrique Dias
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mostly metrics
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme