随着ChatGPT 、Bard 和其他大型语言模型 (LLM) 的兴起,我们已经听到Elon Musk等相关人员关于人工智能 (AI) 带来的风险的警告。现在,一群备受瞩目的行业领袖发表了一份声明,有效地证实了这些担忧。
减轻人工智能灭绝的风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。
据其网站称,它被发布到人工智能安全中心,该组织的使命是“减少人工智能带来的社会规模风险”。签署者是 AI 行业的知名人士,包括 OpenAI 首席执行官 Sam Altman 和 Google DeepMind 负责人 Demis Hassabis。图灵奖获得者杰弗里·辛顿 (Geoffrey Hinton) 和约书亚·本吉奥 (Yoshua Bengio) 也被许多人认为是现代人工智能的教父,他们的名字也在其中。
这是过去几个月中的第二次此类声明。 3 月,马斯克、史蒂夫沃兹尼亚克和其他 1,000 多人呼吁暂停 AI 六个月,以让行业和公众有效地赶上这项技术。 “最近几个月,人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至他们的创造者——无法理解、预测或可靠地控制,”信中说。
尽管 AI 并不(可能)像一些人担心的那样具有自我意识,但它已经存在滥用和通过深度伪造、自动虚假信息等造成伤害的风险。法学硕士还可以改变内容、艺术和文学的制作方式,可能会影响许多工作。
美国总统乔拜登最近表示,人工智能是否危险“还有待观察”,并补充说“在我看来,科技公司有责任在公开产品之前确保其产品安全……人工智能可以帮助应对一些非常困难的挑战,如疾病和气候变化,但它也必须解决我们社会、经济和国家安全面临的潜在风险。”在最近的一次白宫会议上,由于存在潜在风险,奥特曼呼吁对人工智能进行监管。
由于有很多意见浮出水面,新的简短声明旨在表明对人工智能风险的共同关注,即使各方不同意这些风险是什么。
“人工智能专家、记者、政策制定者和公众越来越多地讨论人工智能带来的广泛的重要和紧迫风险,”声明的序言中写道。 “即便如此,也很难表达对一些先进人工智能最严重风险的担忧。下面的简洁声明旨在克服这一障碍并展开讨论。它还旨在为越来越多的专家和公众创造共同知识他们也认真对待一些先进人工智能最严重的风险。”
本文最初出现在 Engadget 上,网址为 https://ift.tt/GdtH3m1