Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

监管未来:欧盟重启人工智能产品责任规则的计划

Posted on 2022-11-04

欧盟最近提出的一项更新长期存在的数字时代产品责任规则的计划——包括解决人工智能 (AI) 和自动化的日益普及的问题——立即遭到欧洲消费者组织BEUC的抨击,该组织称该更新为认为欧盟消费者受到人工智能服务造成的伤害的保护不如其他类型的产品。

对于人工智能驱动的危害和风险,可能会推动对强有力的责任保护的需求,就在上个月,英国数据保护监管机构对声称执行“情绪分析”的伪科学人工智能系统发出了全面警告——敦促此类科技不应该用于纯粹的娱乐以外的任何事情。在公共部门方面, 早在 2020 年,荷兰一家法院就发现,针对社会保障索赔人的算法福利风险评估违反了人权法。而且, 近年来,联合国还对自动化公共服务提供的人权风险提出了警告。此外,多年来,美国法院使用黑盒人工智能系统做出判决决定——在偏见和歧视中不透明地烘烤——一直是技术支持的危害人类罪。

BEUC 是一个代表来自 32 个国家/地区的 46 个独立消费者组织的伞形消费者组织,多年来一直呼吁更新欧盟责任法,以考虑人工智能的日益增长的应用,并确保消费者保护法不会被超越。但它对欧盟提议的一揽子政策的看法——其中包括对现有产品责任指令(PLD)的调整,使其涵盖软件和人工智能系统(以及其他变化);新的人工智能责任指令 (AILD) 旨在解决自动化带来的更广泛的潜在危害——它没有达到它所倡导的更全面的改革方案。

“新规则在某些领域取得了进展,但在其他领域做得不够,对于人工智能驱动的服务来说太弱了,”它在9 月份对欧盟委员会提议的第一次回应中警告说。 “与传统的产品责任规则相反,如果消费者受到人工智能服务运营商的伤害,他们需要证明过错在于运营商。考虑到人工智能系统的不透明性和复杂性,这些条件将使消费者实际上不可能行使他们的损害赔偿权。”

“责任规则必须赶上我们越来越多地被数字和人工智能驱动的产品和服务所包围的事实,例如家庭助理或基于个性化定价的保险单。然而,消费者在人工智能服务方面受到的保护会更少,因为他们必须证明运营商有过错或疏忽才能要求赔偿损失,”副总干事 Ursula Pachl 在随附的一份报告中补充道。回应委员会提议的声明。

“要求消费者这样做真是令人失望。在一个高度复杂且晦涩难懂的“黑匣子”人工智能系统的世界中,消费者几乎不可能使用新规则。因此,如果割草机在花园里撕碎他们的鞋子,消费者将得到更好的保护,而不是通过信用评分系统受到不公平的歧视。”

鉴于人工智能的持续、快节奏的传播——通过“个性化定价”等功能,甚至最近人工智能生成图像的爆炸式增长——可能会有某种形式的自动化成为产品和服务的规则,而不是例外——如果BEUC 的担忧是有根据的,那么对于欧盟约 4.47 亿公民的产品责任保护将面临大规模降级的风险。

BEUC 的高级法律官 Frederico Oliveira Da Silva 在讨论其对提案的反对意见时,提出了一个进一步的问题,即 AILD 如何明确提及委员会早些时候提出的基于风险的框架来规范人工智能应用的提案——又名《 人工智能法案》 ——这意味着消费者需要从本质上证明违反了该规定,以便根据 AILD 提起诉讼。

欧洲制定了基于风险的人工智能规则计划,以提高信任和采用

尽管存在这种联系,但委员会并未同时提出这两项立法草案—— 它们的引入相距大约 1.5 年——造成了 BEUC 担心的脱节的立法轨道,这可能会导致不一致并增加复杂性。

例如,它指出,人工智能法案是针对监管机构的,而不是消费者——因此,鉴于欧盟规定人工智能制造商应该如何记录他们的系统,这可能会限制人工智能责任指令中提议的新信息披露权力的效用。法规遵从性包含在 AI 法案中——因此,换句话说,消费者可能难以理解他们在 AILD 的披露权下可以获得的技术文件,因为这些信息是为提交给监管机构而不是普通用户而编写的。

在提出责任包时,欧盟司法专员还直接提到了“高风险”人工智能系统——使用人工智能法案中包含的特定分类,这似乎暗示只有人工智能系统的一个子集需要承担责任。然而,当被问及 AILD 下的责任是否仅限于 AI 法案中的“高风险”AI 系统(代表 AI 潜在应用的一小部分)时,Didier Reynders 表示,这不是委员会的意图。所以,好吧,很混乱?

BEUC 认为,一个脱节的一揽子政策有可能——至少——在本应结合在一起并作为一个整体发挥作用的规则之间引入不一致。它还可能通过为消费者行使其权利创造更复杂的轨道来破坏责任赔偿的适用和获得赔偿。虽然不同的立法时间表明,一个用于监管人工智能的链接包中的一个将在另一个之前被采用——这可能会为消费者同时获得对人工智能驱动的伤害的补救措施打开一个空白。

就目前而言,人工智能法案和责任包仍在通过欧盟的共同立法程序,因此在通过欧盟法律之前仍有可能发生变化。

AI服务盲区?

BEUC 总结了其对委员会对欧盟长期存在的责任规则现代化的出发点的担忧,警告该提案为消费者创造了一个“人工智能服务盲点”,并且未能“走得足够远”以确保在所有情况下都得到强有力的保护——因为某些AI 危害类型将要求消费者获得更高的赔偿标准,因为它们不属于更广泛的 PLD。 (特别是与基本权利相关的“非物质”伤害——例如歧视或数据丢失,将在 AILD 下纳入。)

就其本身而言,委员会坚决反对这种对人工智能系统一揽子“盲点”的批评。尽管欧盟的共同立法者、理事会和议会是否会寻求对一揽子计划进行修改——甚至进一步调整人工智能法案以改善一致性——还有待观察。

在提交修订欧盟产品责任规则提案的新闻发布会上,委员会重点介绍了它声称将支持消费者成功规避“黑匣子”人工智能可解释性问题的前景措施——特别是引入新的披露要求(使消费者能够获得数据)提出责任的理由);以及可反驳的因果关系推定(降低立案门槛)。它的主张是,综合起来,该软件包解决了“与人工智能相关的具体证明困难,并确保合理的主张不受阻碍”。

尽管欧盟的执行官没有详细说明为什么它没有提出与 PLD 相同的严格责任制度来全面清除人工智能责任——而是选择了一个消费者仍然必须证明不合规的系统——但很明显欧盟责任法并不是在欧盟 27 个成员国重新开放/达成共识的最容易的文件(PLD 本身可以追溯到 1985 年)。因此,委员会可能认为这是使产品责任规则现代化的破坏性最小的方式,而无需打开国家法律的棘手潘多拉魔盒,而这是扩大 PLD 允许的损害类型所必需的。

“人工智能责任指令没有提出基于过错的责任体系,而是以有针对性的方式协调现有国家基于过错的责任制度的某些规定,以确保人工智能系统造成的损害的受害者受到的保护不低于任何其他损害的受害者,”委员会发言人在我们对 BEUC 提出批评时告诉我们。 “在稍后阶段,委员会将评估这些措施对受害者保护和人工智能应用的影响。”

“新的产品责任指令为所有产品建立了严格的责任制度,这意味着无需证明某人有过错即可获得赔偿,”它继续说道。 “委员会没有提议对受人工智能系统伤害的人提供较低水平的保护:所有产品都将纳入新的产品责任指令,包括所有类型的软件、应用程序和人工智能系统。鉴于[提议更新的]产品责任指令不涵盖此类服务的缺陷提供,就像当前的产品责任指令一样,它仍然适用于对自然人造成物质损害的所有产品,无论它们是否是否在提供服务的过程中使用。

“因此,委员会从整体上着眼于这两个责任支柱,旨在确保对人工智能受害者的保护与因任何其他原因造成的损害相同。”

委员会还强调,人工智能责任指令涵盖更广泛的损害——由人工智能支持的产品和服务“如信用评分、保险排名、招聘服务等,这些活动是在人工智能解决方案的基础上进行的” .

“关于产品责任指令,它一直有一个明确的目的:制定赔偿规则以解决产品生产中的风险,”它补充说,为维持 PLD 对有形损害的关注进行辩护。

当被问及如何期望欧洲消费者了解他们可能使用 AILD 中的披露权获得的人工智能系统的高度技术数据时,委员会建议受害者在提出请求后从潜在被告那里收到有关人工智能系统的信息对于“披露或保存相关证据”的法院命令——应寻求相关专家协助。

“如果披露的文件过于复杂,消费者无法理解,消费者将能够像在任何其他法庭案件中一样,在法庭案件中从专家的帮助中受益。如果责任主张成立,则根据国家民事诉讼费用分摊规则,由被告承担鉴定人费用。”

“根据产品责任指令,受害者可以要求制造商获取有关任何产品的信息,这些产品已造成产品责任指令所涵盖的损害。这些信息,例如交通事故前的数据记录,可能对受害者的法律团队确定车辆是否存在缺陷非常有用,”委员会发言人补充说。

关于创建单独的立法轨道的决定,其中一个包含 AILD + PLD 更新包,以及早期的 AI 法案提案轨道,委员会表示它正在根据欧洲议会的一项决议采取行动,要求其将前两个部分一起准备“以便以连贯的方式调整人工智能的责任规则”,并补充说:“在与成员国和利益相关者的讨论中也提出了同样的要求。因此,委员会决定提出一个责任立法方案,将两个提案放在一起,而不是将人工智能责任指令提案的采用与人工智能法案提案的启动联系起来。”

“关于人工智能法案的谈判更加先进的事实只能是有益的,因为人工智能责任指令提到了人工智能法案的规定,”委员会进一步争辩说。

它还强调人工智能法案属于 PLD 制度——再次否认任何“漏洞或不一致”的风险。

“PLD 于 1985 年通过,甚至在大多数欧盟安全立法通过之前。在任何情况下,PLD 都没有提及 AI 法案的具体条款,因为整个立法都属于其制度,它不受约束,也不依赖于 AI 法案本身的谈判,因此不存在以下风险漏洞或与 PLD 不一致。事实上,根据 PLD,消费者不需要证明违反 AI 法案就可以就 AI 系统造成的损害获得赔偿,只需要证明损害是由系统缺陷引起的。”说。

归根结底,委员会更新欧盟产品责任规则以应对快速扩展的自动化的方法是否存在根本缺陷或完美平衡的真相可能介于两者之间。但欧盟在试图规范这些东西方面走在了前面——所以在中间的某个地方着陆可能是目前最合理的策略。

监管未来

毫无疑问,欧盟立法者正在接受监管快速发展的未来的挑战。因此,仅仅通过提出人工智能规则,欧盟就远远领先于其他司法管辖区——这当然会带来自己的陷阱,但也可以说,它也允许立法者有一些回旋的空间来解决(和迭代)应用程序中的问题。毕竟,这些法律如何适用也将是欧洲法院的事。

公平地说,欧盟委员会似乎正试图在过分强硬和阻碍新人工智能驱动服务的开发之间取得平衡——同时张贴足够引人注目的警告标志,让技术专家关注消费者风险并尝试防止问责制“黑洞”让危害扩大到失控。

人工智能法案本身显然是作为一个核心预防框架——通过迫使系统开发人员预先考虑信任和安全问题,并威胁对不合规行为进行处罚,从而减少尖端技术的某些应用所带来的风险和危害。但责任制度建议通过增加那些不遵守规则的人的损害赔偿诉讼风险来进一步加强该框架。这样做的方式甚至可能鼓励过度遵守 AI 法案——鉴于“低风险”应用程序通常不会面临该框架下的任何特定监管(但可能会面临更广泛的 AI 责任规定下的责任)。

因此,人工智能系统制造商和应用程序可能会感到被推向采用欧盟关于人工智能的监管“最佳实践”,以抵御被消费者起诉的风险,这些消费者拥有新的权力来提取其系统上的数据,以及一个可反驳的因果关系推定将责任推给在他们身上证明并非如此。

明年还将出台:执行欧盟新的集体救济指令,规定在整个欧盟范围内提起集体消费者诉讼。该指令已经制定了数年,但欧盟成员国需要在 12 月下旬之前通过并公布必要的法律和规定——计划于 2023 年年中开始执行。

这意味着整个欧盟的消费者诉讼都将增加,这肯定也会将注意力集中在监管合规上。

在讨论欧盟更新的责任包时,国际律师事务所 TaylorWessing 的产品责任和产品安全负责人 Katie Chandler 强调了 AILD 中包含的披露义务对消费者来说是一个“非常重要”的发展——同时指出整个包将需要消费者要做一些腿脚工作,以“了解他们要去哪条路线以及他们要去追谁”;即,他们是起诉 PLD 下的 AI 系统存在缺陷,还是起诉 AILD 下的 AI 系统违反基本权利。 (而且,有一件事看起来很确定:律师将有更多的工作来帮助消费者处理不断扩大的补救选择,以便从狡猾的技术中获得损害赔偿。)

“这项新的披露义务非常重要,而且非常新颖,如果制造商或软件开发人员无法证明他们遵守了安全法规——我认为,这大概意味着人工智能法案的要求——那么因果关系是在那些我认为是试图帮助消费者更容易提出索赔的情况下真正向前迈进的,”钱德勒告诉 TechCrunch。

“然后在 AILD 中,我认为它更广泛——因为它与人工智能系统的操作员(例如自动送货车/无人机的操作员等)相关联——可能没有应用合理技能和护理的用户/操作员遵循了说明小心点,或者操作正确,你就可以在 AILD 下追上去。”

“到目前为止,我的观点是,我认为,作为一个整体的包裹确实为不同类型的损害提供了不同的追索权。 PLD 下的严格责任损害更为直接——因为没有过错制度——但确实涵盖了软件和人工智能系统,并且确实涵盖了[某些类型的损害],但如果你有这种其他类型的损害[例如违约基本权利] 他们的目的是说这些将由 AILD 涵盖,然后绕过关于证明损害是由那些可反驳的假设发挥作用的系统造成的担忧,”她补充说。

“老实说,我确实认为这对消费者来说是一个非常重要的进步,因为——一旦实施——科技公司现在将坚定地处于需要在发生特定类型的损害和损失时补偿消费者的框架内。他们将无法争辩说他们现在不适合这些制度——我认为这是一个重大变化。

“在此背景下,任何在欧洲运营的明智的科技公司都会仔细研究这些并为它们制定计划,并且肯定必须掌握人工智能法案。”

欧盟提出的两种支持消费者针对不同类型的人工智能损害进行补救的途径在实践中是否有效显然取决于应用程序。因此,对功效的全面分析可能需要几年的时间来评估其运作方式以及是否存在人工智能盲点。

但 TaylorWessing 汉堡办事处的合伙人 Philipp Behrendt 博士也对改革如何将责任范围扩大到有缺陷的软件和人工智能做出了乐观的评估。

“根据现行的产品责任法,软件不被视为产品。这意味着,如果消费者遭受软件造成的损害,则根据产品责任法,他或她无法获得损害赔偿。但是,如果该软件用于例如汽车,并且该汽车对消费者造成损害,则产品责任法涵盖了这一点,如果使用 AI 软件,情况也是如此。这意味着消费者可能更难以对人工智能产品提出索赔,但这是因为根据产品责任指令对软件的一般例外,”他告诉 TechCrunch。

“根据未来的规则,产品责任规则也应涵盖软件,在这种情况下,人工智能根本不会受到区别对待。重要的是,人工智能指令没有提出索赔,而只是通过引入因果关系假设来帮助消费者,在人工智能系统的故障与造成的损害和特定高风险人工智能系统的披露义务之间建立因果关系。因此,BEUC 批评委员会提出的制度将意味着欧洲消费者对使用人工智能的产品的保护水平低于非人工智能产品,这似乎是对产品责任制度的误解。”

“按照他们提出的方式采用这两种方法——取决于这些反驳推定和披露要求是否足以让责任人承担责任——可能会以合理的方式为不同类型的损害提供一条途径,”钱德勒也预言了。 “但我认为这一切都在应用程序中。这一切都取决于法院如何解释这一点,法院如何应用披露义务等内容,以及这些可反驳的推定实际上如何提供帮助。”

“在我看来,这在法律上都是合理的,真的,因为有不同类型的损害……而且 [AILD] 捕捉到了其他类型的情况——当涉及到失去我的基本权利时,你将如何处理例如数据,”她补充道。 “我很难理解 PLD 是如何实现的,因为这不是 PLD 的设计目的。但 AILD 给出了这条路线,并包含了类似的假设——反驳假设——所以它确实有一定的意义。”

她还表示支持欧盟立法者取得平衡的必要性。 “当然,硬币的另一面是创新,需要在消费者保护和创新之间取得平衡——以及如何以更正式的方式将 [AI] 引入严格的责任制度,这对初创企业有何影响?或者这会对人工智能系统的迭代产生怎样的影响——我认为,这可能也是 [委员会] 的挑战,”她说,并补充道:“尽管大多数人都同意需要谨慎的平衡,但我会同意。 ”

虽然英国不再是欧盟成员国,但她建议当地立法者将热衷于促进在加强消费者保护和鼓励英国任何责任改革的技术发展之间取得类似的平衡,并建议:“如果 [英国] 做了任何明显不同的事情,并且对相关各方来说更困难——在人工智能和潜在被告的发展背后——因为我本以为他们想要获得同样的平衡。”

与此同时,欧盟继续在全球范围内引领科技监管——现在正积极推动重启人工智能时代的产品责任规则,例如,Chandler 指出,它为响应欧盟委员会的提议而提供的反馈期相对较短(她认为这意味着像 BEUC 的批评可能不会在短期内引起太多思考)。她还强调了欧盟需要很长时间才能获得一份关于更新责任的提案草案——这个因素可能会为推动一揽子计划提供更多动力,现在它已经摆在桌面上。

“我不确定 BEUC 能否在这里得到他们想要的东西。我认为他们可能不得不等着看这将如何应用,”她建议道,并补充道:“我认为委员会的策略将是实施这些一揽子计划——显然,你已经得到了集体救济指令的背景,即也有联系,因为您很可能会看到与失败的 AI 系统和产品责任相关的集体行动——并且通常会看到这如何满足消费者获得所需补偿的需求。然后到那个时候——不管多少年后——他们会重新审视它并再次审视它。”

再往前走——随着人工智能服务越来越深入地嵌入到一切事物中——欧盟可以决定它需要通过扩大严格责任制度以包括人工智能系统来进行更深入的改革。但这留给未来的迭代过程,以允许我们人类与尖端技术之间更多的相互作用。 “这将是几年后的事情,”钱德勒预测道。 “我认为这将需要一些经验来了解如何将这一切应用到实践中——找出差距,找出可能存在一些弱点的地方。”

坏机器人:欧洲计划改变产品责任以更容易起诉人工智能

欧洲议会支持“历史性”重启欧盟的数字规则手册

规范未来:看看欧盟计划重启人工智能产品责任规则的计划, Natasha Lomas最初发表在TechCrunch上

原文: https://techcrunch.com/2022/11/04/eu-ai-liability-directive-product-liability-directive/

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Bits about Money
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • eighty twenty
  • Elad Gil
  • Ellie Huxtable
  • Ethan Dalool
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • Henrique Dias
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mostly metrics
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Rohit Patel
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Steve Blank
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • Wes Kao
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme