一位匿名读者援引路透社的报道: 各国周一在联合国召开会议,重新启动对现代战争中越来越多使用的人工智能控制自主武器的监管力度,专家警告说,为新的致命技术设置护栏的时间已经不多了。自主和人工智能辅助武器系统已经在从乌克兰到加沙的冲突中发挥着更大的作用。全球不断增长的国防支出有望进一步推动新兴的人工智能辅助军事技术。然而,制定管理其开发和使用的全球规则的进展并没有跟上。而具有国际约束力的标准实际上仍然不存在。自 2014 年以来,《常规武器公约》(CCW) 成员国一直在日内瓦举行会议,讨论可能禁止在没有有意义的人类控制和监管他人的情况下运行的完全自主系统。联合国秘书长安东尼奥·古特雷斯为各国设定了 2026 年最后期限,要求各国制定人工智能武器使用的明确规则。但人权组织警告说,各国政府之间缺乏共识。奥地利外交部军控负责人亚历山大·克门特表示,这种情况必须迅速改变。他告诉路透社:“设置一些护栏的时间确实已经不多了,这样一些最著名的专家警告的噩梦场景就不会发生。”周一在纽约举行的联合国大会将是该机构首次专门讨论自主武器问题的会议。尽管不具有法律约束力,但外交官员希望磋商能够加大对因担心规则可能削弱该技术战场优势而抵制监管的军事大国的压力。活动团体希望这次会议将推动各国就一项法律文书达成一致,这次会议还将解决《特定常规武器公约》未涵盖的关键问题,包括道德和人权问题以及非国家行为者使用自主武器的问题。他们认为这是各国能否在 9 月份下一轮《特定常规武器公约》谈判之前弥合分歧的重要试金石。国际特赦组织军事、安全和警务研究员帕特里克·威尔肯 (Patrick Wilcken) 表示:“这个问题需要通过一项具有法律约束力的条约来澄清。技术发展如此之快。” “你不想排除将生死决定委托给机器的想法……似乎很不寻常。” 2023年,164个国家签署了2023年联合国大会决议,呼吁国际社会紧急应对自主武器带来的风险。
在 Slashdot 上阅读这个故事的更多内容。