英国的隐私监管机构警告不要将所谓的“情绪分析”技术用于任何比儿童派对游戏更严重的事情,称应用“不成熟”的生物识别技术会带来歧视风险,这种技术会伪科学地声称能够识别人们的情绪。情绪使用人工智能来解释生物特征数据输入。
这样的人工智能系统“功能”,如果我们可以使用这个词,声称能够“读取茶叶”的一种或多种生物特征信号,例如心率、眼球运动、面部表情、皮肤水分、步态跟踪、声调等,并执行情绪检测或情绪分析来预测人的感受——大概是在接受了一系列关于皱眉、微笑等的视觉数据的训练之后(但你可以立即看到尝试分配个人面部的问题绝对情绪状态的表达——因为没有两个人,而且通常没有两个情绪状态是相同的;因此你好伪科学!)。
监管机构的副专员斯蒂芬邦纳似乎同意必须停止这种高科技的废话——说今天没有证据表明这些技术确实像声称的那样有效(或者它们永远有效)。
“生物识别和情感人工智能市场的发展还不成熟。他们可能还没有工作,或者确实永远不会工作,”他在一份声明中警告说。 “虽然存在机会,但目前风险更大。在 ICO,我们担心对数据的不正确分析可能会导致对一个人的假设和判断不准确并导致歧视。
“唯一可持续的生物识别部署将是那些功能齐全、负责任并有科学支持的部署。就目前而言,我们还没有看到任何情感人工智能技术以满足数据保护要求的方式发展,并且对该领域的比例性、公平性和透明度存在更普遍的问题。”
在 Bonner 对狡猾的生物识别技术进行抨击的博文中,信息委员会办公室 (ICO) 表示,组织应在部署此类技术之前评估公共风险——并进一步警告称,那些不负责任的人可能会面临调查。 (因此也可能面临罚款的风险。)
“ICO 将继续审查市场,确定正在寻求创建或部署这些技术的利益相关者,并解释增强数据隐私和合规性的重要性,同时鼓励对这些系统如何工作的信任和信心,”Bonner 补充道。
监管机构将在春季发布更全面的生物识别指导——它今天表示,这将强调组织需要对数据安全给予适当的重视——因此邦纳的警告提供了一个在未来半年左右的时间里进行更全面指导的尝试.
监管机构补充说:“不负责任地行事、对弱势群体构成风险或未能达到 ICO 预期的组织将受到调查。”
它的博客文章给出了一些可能与生物识别技术相关的例子——包括通过使用可穿戴筛查工具来监测工人身体健康的人工智能技术;或使用视觉和行为方法,例如身体姿势、言语、眼睛和头部动作来为学生注册考试。
“情绪分析依赖于收集、存储和处理一系列个人数据,包括潜意识的行为或情绪反应,在某些情况下,还包括特殊类别的数据。这种数据使用比用于验证或识别一个人的传统生物识别技术风险更大,”它继续说道。 “没有充分开发的算法无法检测情绪线索,意味着存在系统性偏见、不准确甚至歧视的风险。”
这不是 ICO 第一次对生物识别技术的使用增加感到担忧。 去年,当时的信息专员伊丽莎白·德纳姆(Elizabeth Denham)发表了一份意见,表达了她对不恰当、鲁莽或过度使用实时面部识别 (LFR) 技术的潜在“重大”影响的担忧——警告说这可能导致“大规模兄弟式的公众监视。
然而,该警告针对的是更具体的技术(LFR)。 ICO 的 Bonner 告诉《卫报》,这是监管机构首次就一项全新技术的无效性发出全面警告——认为如果公司根据无意义的数据做出有意义的决定可能造成的伤害,这是有道理的。报纸的报道。
生物识别法规在哪里?
ICO 可能会因为英国立法者在生物识别监管方面没有积极主动地在这一领域进行更实质性的干预而感到感动。
今年夏天发布的对英国该领域立法的独立审查得出结论,该国迫切需要新的法律来管理生物识别技术的使用,并呼吁政府提出主要立法。
然而,政府似乎并没有太在意这种敦促或各种监管警告——例如,今年早些时候提出了一项计划中的数据保护改革,避免采取行动提高整个公共部门的算法透明度,同时——特别是在生物识别方面——它只提供了旨在澄清(特别是)警察使用生物识别数据的规则(制定最佳实践标准和行为准则)的软接触措施。与 Ada Lovelace 研究所委托的独立法律审查所要求的综合框架相去甚远。
无论如何,在经历了一个夏天的国内政治动荡导致总理接二连三换届之后,数据改革法案仍然处于暂停状态。本月早些时候,负责数字问题的国务卿(仍在任)米歇尔·多内兰(Michelle Donelan)也宣布了一项立法反思,她利用最近的保守党会议演讲瞄准了欧盟的《通用数据保护条例》(GDPR),又名该框架早在 2018 年就被转化为英国法律。她表示,政府将用定制的英国数据保护系统“取代”GDPR,但几乎没有详细说明将用什么来取代该基础框架。
GDPR 对用于识别个人的生物识别数据的处理进行了规范,并且还包括对某些重大算法决策进行人工审查的权利。因此,如果政府打算撕毁当前的规则手册,就会引发一个问题,即未来英国将如何——甚至是否——监管生物识别技术?
这使得 ICO 关于伪科学生物识别 AI 系统风险的公开声明变得更加重要。 (同样值得注意的是,监管机构对Ada Lovelace 研究所(委托进行上述法律审查)和英国青年委员会的参与进行了名称检查,并表示将参与其计划用来帮助塑造其即将推出的“以人为本”生物识别指南。)
ICO 补充说:“在生物识别产品和服务的开发阶段支持企业和组织嵌入了‘隐私设计’方法,从而降低了风险因素并确保组织安全合法地运营。”对政府政策重点的评论。
监管机构对情绪分析技术的担忧也不是学术风险。
例如,总部位于英国曼彻斯特的一家名为 Silent Talker 的公司是参与开发一种极具争议的“人工智能测谎仪”技术(称为iBorderCtrl )的实体之一,该技术被宣传为加快移民检查的一种方式。早在 2017 年。具有讽刺意味的是,iBorderCtrl 项目获得了欧盟的研发资金,尽管批评者指责该研究项目使歧视自动化。
目前尚不清楚底层“人工智能测谎仪”技术的现状如何。根据 Companies House 的记录,参与“概念验证”项目的曼彻斯特公司——该项目也与曼彻斯特城市大学的研究有关——于今年夏天解散。但 iBorderCtrl 项目也因透明度原因受到批评,并面临许多信息自由行动,试图揭开该项目及其背后的财团的盖子——显然,成功有限。
在另一个例子中,英国健康初创公司 Babylon AI 在 2018 年的一次演讲中展示了嵌入远程医疗平台的“情绪扫描”人工智能——称该技术实时扫描面部表情,以评估人们的感受和将其呈现给临床医生以可能采取行动。
其首席执行官阿里·帕瑟当时表示,情绪扫描技术已经建成,并暗示它将进入市场——但该公司后来反驳了这一说法,称人工智能仅用于上市前的测试和开发已被取消优先级以支持其他 AI 驱动的功能。
ICO 肯定会很高兴巴比伦重新考虑使用 AI 声称其软件可以执行远程情绪扫描。
它的博客文章继续引用其他当前正在更广泛地使用生物识别技术的例子——包括在机场简化乘客旅程;金融公司使用实时面部识别技术进行远程身份检查;以及使用语音识别来方便帐户访问的公司,而不必记住密码。
监管机构没有对引用的用例发表具体评论,但鉴于人们的隐私和权利面临巨大的潜在风险,它看起来很可能会密切关注生物识别技术的所有应用——即使它最特别的关注将被引导转向使用摆脱束缚并误入科幻小说领域的技术。
ICO 的博客文章指出,其对“生物识别期货”的研究是其“水平扫描功能”的关键部分。哪个技术官僚说“对这种类型的 AI 技术进行优先审查,因为它正在迅速向我们所有人倾斜”。
“这项工作确定了将在不久的将来影响隐私的关键技术和创新——其目的是确保 ICO 准备好应对变革性技术可能带来的隐私挑战,并确保鼓励负责任的创新,”它补充道。
英国监管机构警告不要将 AI 用于情绪分析,称“不成熟”的生物识别技术存在偏见风险Natasha Lomas最初发表在TechCrunch上
原文: https://techcrunch.com/2022/10/26/no-to-voight-kampff-tests/