本周,一个人行道送货机器人穿过黄色警示胶带并在洛杉矶犯罪现场滚动的视频在推特上获得了超过 650,000 次观看,并引发了关于该技术是否已准备好迎接黄金时段的争论。
事实证明,机器人的错误,至少在这种情况下,是由人类造成的。
该活动的视频由位于洛杉矶的警察监督机构Film the Police LA的所有者 William Gude 拍摄并发布在 Twitter 上。上午 10 点左右,古德在好莱坞高中发生疑似校园枪击案的现场,他在视频中捕捉到机器人在街角盘旋时看起来很困惑,直到有人抬起磁带,让机器人继续前进通过犯罪现场。
送餐机器人强行穿过警察犯罪现场。 pic.twitter.com/T5DaET5Q5b
— 电影警察洛杉矶 (@FilmThePoliceLA) 2022 年 9 月 13 日
Uber 分拆出来的 Serve Robotics 告诉 TechCrunch,机器人的自动驾驶系统并没有决定进入犯罪现场。这是远程操作机器人的人工操作员的选择。
该公司的送货机器人具有所谓的 4 级自主性,这意味着它们可以在特定条件下自行驾驶,而无需人类接管。自 5 月以来,Serve 一直在该地区与 Uber Eats 一起试用其机器人。
Serve Robotics 有一项政策,要求人工操作员在每个路口远程监控和协助其机器人。如果机器人遇到障碍物(例如施工区或倒下的树),并且无法在 30 秒内确定如何绕过障碍物,操作员也将远程控制。
在这种情况下,根据公司的内部运营政策,刚刚完成交付的机器人接近十字路口,由人工操作员接管。最初,人类操作员在黄色警示带上停了下来。但是,当旁观者举起磁带并显然“挥手通过”时,人类操作员决定继续,Serve Robotics 首席执行官 Ali Kashani 告诉 TechCrunch。
“机器人永远不会(单独)越过,”卡沙尼说。 “只是有很多系统可以确保它永远不会跨越,直到人类允许它继续前进。”
他补充说,这里的判断错误是有人决定继续穿越。
不管是什么原因,卡沙尼都说这不应该发生。他补充说,Serve 已从事件中提取数据,并正在为人类和人工智能制定一套新的协议,以防止将来发生这种情况。
一些明显的步骤将是确保员工遵循标准操作程序(或 SOP),其中包括适当的培训和制定新规则,以说明如果个人试图挥动机器人穿过路障时该怎么做。
但 Kashani 表示,也有一些方法可以使用软件来帮助避免这种情况再次发生。
他说,软件可用于帮助人们做出更好的决策或完全避开某个领域。例如,该公司可以与当地执法部门合作,向机器人发送有关警察事件的最新信息,以便它可以绕过这些区域。另一种选择是让软件能够识别执法,然后提醒人类决策者并提醒他们当地法律。
随着机器人的进步和扩展其操作领域,这些经验教训将至关重要。
“有趣的是,机器人做了正确的事;它停止了,”卡沙尼说。 “所以这真的可以追溯到给人们足够的背景来做出好的决定,直到我们有足够的信心,我们不需要人们做出这些决定。”
Serve Robotics 机器人尚未达到这一点。然而,Kashani 告诉 TechCrunch,机器人正在变得更加独立,并且通常可以自行运行,但有两个例外:交叉路口和某种形式的封锁。
Kashani 说,本周出现的情况与有多少人看待 AI 背道而驰。
“我认为总的来说,人们在极端情况下真的很擅长,然后人工智能会犯错误,或者可能还没有为现实世界做好准备,”卡沙尼说。 “有趣的是,我们正在学习一种相反的东西,即我们发现人们会犯很多错误,我们需要更多地依赖人工智能。”
这个机器人越过了它不应该有的界限,因为最初发表在TechCrunch上的Kirsten Korosec是人类告诉它的
原文: https://techcrunch.com/2022/09/16/serve-robotics-sidewalk-robot-crime-scene/