好吧,那很快。英国竞争监管机构已宣布对“人工智能基础模型”进行初步审查,例如支持 OpenAI 的 ChatGPT 和微软的 New Bing 的大型语言模型 (LLM)。为 OpenAI 的 DALL-E 或 Midjourney 等 AI 艺术平台提供动力的生成 AI 模型也可能属于范围。
竞争与市场管理局 (CMA) 表示,其审查将着眼于开发和使用 AI 基础模型时的竞争和消费者保护考虑因素——目的是了解“基础模型如何开发和产生对条件和原则的评估”将最好地指导基础模型的开发及其未来的使用”。
它提议在“9 月初”发布审查结果,截止日期为 6 月 2 日,以便感兴趣的利益相关者提交回复以告知其工作。
“过去五年出现的基础模型,包括大型语言模型和生成人工智能 (AI),有可能改变人们和企业的大部分行为。为确保人工智能的创新继续以有利于消费者、企业和英国经济的方式进行,政府已要求包括 [CMA] 在内的监管机构考虑如何根据五项总体原则支持人工智能的创新开发和部署:安全、保障和稳健性;适当的透明度和可解释性;公平;问责制和治理;以及竞争性和补救措施,”CMA 在一份新闻稿中写道。”
早在 2021 年,斯坦福大学以人为本的人工智能中心的基础模型研究中心就创造了“基础模型”一词,指的是专注于在大量数据上训练一个模型并使其适应的人工智能系统许多应用程序。
“人工智能的发展涉及许多重要问题,包括安全、安保、版权、隐私和人权,以及市场运作方式。政府或其他监管机构正在考虑其中许多问题,因此本次初步审查将重点关注 CMA 最适合解决的问题——人工智能基础模型的发展对竞争和消费者保护可能产生哪些影响?” CMA补充道。
在一份声明中,其首席执行官 Sarah Cardell 还表示:
人工智能在过去几个月突然进入公众意识,但一段时间以来一直在我们的关注范围内。这是一项快速发展的技术,有可能改变企业的竞争方式并推动经济的大幅增长。
至关重要的是,英国企业和消费者可以轻松获得这种变革性技术的潜在好处,同时人们仍然受到保护,免受虚假或误导性信息等问题的影响。我们的目标是帮助这种快速扩展的新技术以确保开放、竞争市场和有效保护消费者的方式发展。
具体来说,英国竞争监管机构表示,其对人工智能基础模型的初步审查将:
- 检查基础模型及其使用的竞争市场如何演变
- 探讨这些情景可能为竞争和消费者保护带来哪些机遇和风险
- 随着 AI 基础模型的发展,制定支持竞争和保护消费者的指导原则
虽然反垄断监管机构可能会提前对这种快速发展的新兴技术进行审查,但 CMA 正在按照政府指示行事。
3 月份发布的一份人工智能白皮书表明,部长们倾向于避免在现阶段制定任何定制规则(或监督机构)来管理人工智能的使用。然而,大臣们表示,现有的英国监管机构——包括直接接受姓名核查的 CMA——预计将发布指导意见,以鼓励安全、公平和负责任地使用人工智能。
CMA 表示,其对基础人工智能模型的初步审查符合白皮书中的说明,政府在白皮书中谈到现有监管机构进行“详细风险分析”,以便能够执行潜在的执法,即危险的、利用他们现有的权力对人工智能进行不公平和不负责任的应用。
监管机构还指出其核心使命——支持开放、竞争激烈的市场——是现在关注生成人工智能的另一个原因。
值得注意的是,根据上个月总理 Rishi Sunak 政府取消的计划,竞争监管机构将在未来几年获得更多权力来监管大型科技公司,当时部长们表示将采取长期行动(但延迟很多)针对数字巨头市场力量的事前改革。
预计自 2021 年以来以影子形式启动和运行的CMA 数字市场部门将(最终)在未来几年获得立法权,以适用积极主动的“促进竞争”规则,这些规则专为被认为具有“战略市场地位”(SMS)。因此,我们可以推测,强大的基础人工智能模型的供应商可能最终会被判定拥有 SMS——这意味着他们可能会面临针对英国市场上的竞争对手和消费者如何运作的定制规则。
英国的数据保护监管机构 ICO 也关注生成式人工智能。这是另一个现有的监督机构,政府根据其针对具体情况的指导计划特别关注人工智能,以通过应用现有法律来引导技术的发展。
在上个月的一篇博文中,ICO 的监管风险执行总监斯蒂芬·阿尔蒙德 (Stephen Almond) 在遵守英国数据保护规则方面为生成式人工智能的开发人员提供了一些提示和一点警告。 “开发或使用生成式人工智能的组织应该从一开始就考虑他们的数据保护义务,通过设计和默认方法采取数据保护,”他建议道。 “这不是可选的——如果你正在处理个人数据,那是法律。”
与此同时,在欧盟的英吉利海峡,立法者正在决定一套可能适用于生成人工智能的固定规则。
欧盟即将出台的人工智能规则手册的最终文本谈判正在进行中——但目前的重点是如何通过修改欧盟两年多前发布的人工智能使用监管框架的风险来监管基础模型。
欧盟的共同立法者最终将在有时也被称为通用人工智能的领域取得怎样的成果还有待观察。但是,正如我们最近报道的那样,议员们正在推动一种分层方法来解决基础模型的安全问题;人工智能供应链责任的复杂性;并解决与生成 AI 相关的特定内容问题(如版权)。
除此之外,欧盟数据保护法当然已经适用于人工智能。欧盟正在对 ChatGPT 等模型进行以隐私为重点的调查——包括在意大利,当地监管机构的干预导致 OpenAI 上个月匆忙推出了一系列隐私披露和控制措施。
欧洲数据保护委员会最近还成立了一个工作组,以支持不同数据保护机构之间就人工智能聊天机器人的调查进行协调。其他调查 ChatGPT 的人包括西班牙的隐私监管机构。
英国反垄断监管机构宣布对Natasha Lomas最初发表于TechCrunch 的生成人工智能进行初步审查
原文: https://techcrunch.com/2023/05/04/cma-generative-ai-review/