备受吹捧的生成式 AI 的到来重新点燃了一场关于信任和安全的熟悉辩论:能否信任技术高管将社会的最大利益放在心上?
因为它的训练数据是由人类创造的,人工智能天生就容易产生偏见,因此受制于我们自己不完美的、情感驱动的看待世界的方式。我们非常了解从加剧歧视和种族不平等到促进两极分化的风险。
OpenAI 首席执行官 Sam Altman要求我们“耐心和诚意”,因为他们正在努力“把事情做对”。
几十年来,我们一直耐心地将我们对技术高管的信任置于我们的危险之中:他们创造了它,所以当他们说他们可以修复它时我们相信他们。对科技公司的信任度持续下降,根据 2023 年 Edelman Trust Barometer,全球 65% 的人担心科技会让人们无法知道人们所看到或听到的是否真实。
硅谷是时候采用一种不同的方法来赢得我们的信任了——一种已被证明在国家法律体系中行之有效的方法。
信任和合法性的程序正义方法
程序正义以社会心理学为基础,其研究表明,人们相信机构和行为者在被倾听并体验中立、公正和透明的决策时更值得信赖和合法。
程序正义的四个关键组成部分是:
- 中立:决策是公正的,并以透明的推理为指导。
- 尊重:所有人都受到尊重和尊严。
- 声音:每个人都有机会讲述自己的故事。
- 可信度:决策者对受其决策影响的人表达了可信的动机。
使用此框架,警方改善了社区中的信任与合作,一些社交媒体公司开始使用这些想法来塑造治理和调节方法。
以下是有关 AI 公司如何调整此框架以建立信任和合法性的一些想法。
建立合适的团队来解决正确的问题
正如加州大学洛杉矶分校教授 Safiya Noble所说,围绕算法偏见的问题不能仅由工程师解决,因为它们是系统性的社会问题,需要人文主义的观点——在任何一家公司之外——以确保社会对话、共识和最终监管——两者都是自我和政府。
在“系统错误:大型科技公司出了什么问题以及我们如何重新启动”一书中,三位斯坦福教授批判性地讨论了计算机科学培训和工程文化的缺点,因为它痴迷于优化,往往将民主社会的核心价值观搁置一旁。
在一篇博客文章中, Open AI 表示它重视社会投入:“因为 AGI 的优势如此之大,我们不相信社会永远停止其发展是可能的或可取的;相反,社会和 AGI 的开发者必须找出正确的方法。”
然而,该公司的招聘页面和创始人Sam Altman 的推文显示,该公司正在招聘大批机器学习工程师和计算机科学家,因为“ChatGPT 有一个雄心勃勃的路线图,但在工程方面遇到了瓶颈。”
这些计算机科学家和工程师是否有能力做出决策,正如 OpenAI 所说,“需要比社会通常对新技术应用更多的谨慎”?
科技公司应聘请多学科团队,其中包括了解技术对人类和社会影响的社会科学家。凭借关于如何训练 AI 应用程序和实施安全参数的各种观点,公司可以为他们的决策阐明透明的推理。反过来,这可以提高公众对该技术中立和值得信赖的看法。
包括局外人的观点
程序正义的另一个要素是让人们有机会参与决策过程。在最近一篇关于 OpenAI 公司如何解决偏见的博客文章中,该公司表示,它正在寻求“对我们技术的外部输入”,并指出最近的红队训练,这是一种通过对抗性方法评估风险的过程。
虽然红队是评估风险的重要过程,但它必须包括外部输入。在OpenAI 的红队训练中,103 名参与者中有 82 名是员工。在其余 23 名参与者中,大多数是来自西方大学的计算机科学学者。为了获得不同的观点,公司需要超越自己的员工、学科和地域。
他们还可以通过让用户更好地控制 AI 的执行方式,从而为 AI 产品提供更直接的反馈。他们还可以考虑提供机会让公众对新政策或产品变更发表评论。
确保透明度
公司应确保所有规则和相关安全流程都是透明的,并传达关于如何做出决策的可信动机。例如,重要的是向公众提供有关如何训练应用程序、从何处提取数据、人类在训练过程中扮演什么角色以及存在哪些安全层以最大程度地减少滥用的信息。
允许研究人员审核和理解人工智能模型是建立信任的关键。
奥特曼在最近的美国广播公司新闻采访中说得对,他说:“我认为,社会只有有限的时间来弄清楚如何对此做出反应,如何规范它,如何处理它。”
通过程序公正的方法,而不是技术前辈的不透明和盲目信仰,构建人工智能平台的公司可以让社会参与到这个过程中,并赢得——而不是要求——信任和合法性。
Procedural justice can address generative AI’s trust/legitimacy problem by Walter Thompson最初发表于TechCrunch