未来主义报道:本周早些时候,OpenAI 在一篇长篇博客文章中承认,它正在扫描用户的对话,并向警方报告任何人类审核员认为具有足够威胁性的互动。“当我们检测到计划伤害他人的用户时,我们会将他们的对话发送到专门的管道,在那里由一个接受过我们使用政策培训并被授权采取行动(包括封禁账户)的小型团队进行审查,”OpenAI 写道。“如果人类审核员确定某个案件涉及对他人造成严重身体伤害的迫在眉睫的威胁,我们可能会将其提交给执法部门。” 这则声明立即引发了人们的质疑。例如,人类审核员对语气的判断,难道不会削弱一个人工智能系统的整个前提吗?该系统的创建者声称该系统可以解决广泛而复杂的问题。OpenAI 究竟是如何确定用户的精确位置,以便将其提供给紧急救援人员的?它如何防止所谓的“恶作剧者”(swatters)滥用?这些人可能会假扮成其他人,然后对 ChatGPT 进行暴力威胁,从而让警察突击搜查他们的目标……?这种说法似乎也与 OpenAI 首席执行官 Sam Altman 的言论相矛盾。他最近呼吁,与 ChatGPT 对话的用户应该享有类似于“治疗师、律师或医生”的隐私。“另一些人则认为,人工智能行业正在仓促地将缺乏理解的产品推向市场,将真人当作实验对象,并在现实世界出现问题时采用越来越随意的解决方案……”感谢 Slashdot 的长期读者 schwit1 分享此新闻。
在 Slashdot 上阅读更多内容。