符合伦理道德的人工智能显然是一个值得努力的目标,然而它远比大多数人认为的要复杂得多。本文是一系列短文中的第一篇,旨在探讨其中的一些棘手问题。
道德到底是什么?
伦理学是哲学的一个分支,它研究道德原则和价值观,探讨“正确”与“错误”的问题。
为了尝试评估什么是“正确的”,一些道德框架提供了有用的视角。
-
后果主义以结果来评判行为。例如,一家公司采用可持续实践,是因为其收益(降低排放、提升声誉)大于成本。
-
义务论关注的是义务和权利,而不考虑后果。例如,一家公司拒绝出售用户数据,并非因为违法,而是因为这样做是正确的。
-
美德伦理学强调品格而非行为。例如,CEO 会培育一种社区协作的文化,因为这反映了他们希望公司成为的样子。
人们常常将道德与合法混为一谈,但合法的事情未必合乎道德。从被认为不道德的行为到最终被认定为非法,往往存在相当长的时间差。因此,单靠法律并不能提供充分的指导。
道德人工智能
道德人工智能是指以符合公平、透明和问责等道德价值观和原则的方式设计、开发和部署人工智能系统。
人工智能与伦理的交汇带来了挑战。人工智能是一种通用技术,部署于不同领域,这使得一致性的伦理实施变得困难。在某种情况下适用的做法,在另一种情况下可能有害,而且全球范围内的社会规范也各不相同。随着人工智能系统(例如代理)自主范围的扩大,其对社会的影响也变得更难以预测。
道德实践也常常与经济或政治激励相冲突,尤其是在优先考虑快速上市或竞争优势的情况下。这种矛盾是当前“人工智能军备竞赛”论调受到批评的主要原因。
良好的意愿
欧盟提供了一个实用的例子,展示了人工智能伦理原则的典型构建方式。它概述了指导人工智能伦理发展的四项核心原则:
-
尊重人类自主:人工智能应该支持(而非凌驾于)人类自主权。系统必须避免操纵,并确保人类能够有效控制。
-
预防伤害:人工智能不得造成身体、心理或环境伤害。它必须安全、稳健,并对权力失衡保持敏感。
-
公平性:人工智能应该公平对待人类,避免偏见。这包括公平的结果以及质疑决策的能力。
-
可解释性:人工智能必须是可理解的。当无法实现透明度时,可审计性和可追溯性对于问责至关重要。
这些原则听起来都非常合理,当然应该推行,然而魔鬼藏在细节中,而这正是这篇文章的重点。
残酷的现实
考虑一下当这些善意的原则遇到现实世界部署的现实时会发生什么。
-
工业界的人工智能系统通过以远超人类能力的规模实现自动化活动,从而发挥其最大价值。这使得自主原则所要求的“有意义的人类控制”几乎不可能实现。监督机制也变得脆弱不堪。
-
与专为特定任务设计的狭义人工智能系统不同,如今的大型语言模型和基础模型可以以无数种方式重新利用。要防止这种几乎可以应用于任何领域的工具造成危害并非易事。
-
公平并非一个单一的概念,而是由一系列相互冲突的定义构成(例如,机会均等、人口均等、个体公平)。不可能定理表明,同时满足所有公平约束几乎是不可能的(下文将对此进行更详细的阐述)。
-
深度学习系统本质上难以解释。当今最大规模的模型拥有数千亿个参数,这使得可解释性极具挑战性。尽管新兴的机制可解释性领域带来了希望,但我们距离实现透明化仍然遥不可及。
关于公平的说明
在所有符合伦理道德的人工智能原则中,公平或许是最看似简单的原则,因此值得关注。大多数人都认同系统应该“公平”,但公平的含义、如何衡量公平以及公平带来的利弊权衡却远非显而易见。
评估公平性需要真正的技术能力。它涉及评估跨子群体的模型行为、设计稳健的测试工具,甚至可能审核训练数据是否存在历史偏差(目前,大多数 LLM 的数据清理工作都由启发式方法和LLM 本身处理)。但业内许多公司尚不具备这种能力。
公平并非单一的概念。它包含多种类型:群体公平、个体公平、机会均等、人口均等等等。选择其中一种进行优化,是一种价值判断。
正如我上面提到的,不可能定理表明,从数学上讲,不可能同时满足所有公平的定义。优化一个定义就意味着牺牲另一个定义。换句话说,完美的公平实际上是不可能的。
最后,公平往往伴随着成本。论文《算法决策与公平成本》表明,提高公平性可能会降低模型效用。在商业环境中,这会造成摩擦。除非公平与监管或声誉风险相一致,否则利润激励可能会占据主导地位。这表明,公平不仅是技术挑战,也是哲学和政治挑战。
为什么这很重要
尽管几乎所有人都同意人工智能应该合乎道德,但这种共识隐藏着复杂性。
人工智能系统正在越来越多地做出影响招聘、贷款、医疗保健、刑事司法以及无数其他领域的决策,而这种理想与现实之间的差距带来了真正的风险。如果未能充分理解其背后的复杂性,即使是出于善意的努力也可能徒劳无功。
管理这些限制意味着以适当的严谨态度对待伦理人工智能。这包括明确地接受权衡,建立健全的流程以识别新兴问题,将目标与技术现实相匹配,以及开发适应性框架而非通用解决方案。至关重要的是,伦理原则必须结合具体情况:我们希望为我们的组织做什么?为我们的用户做什么?为我们构建的系统做什么?
成功并不意味着事事正确。事实上,即使失败,我们也需要能够取胜,通过公开地正视和承认权衡利弊,记录决策背后的理由,并设计能够随着时间的推移揭示、追踪和重新评估道德风险的流程。
==道德人工智能需要主动决策,没有默认选项。==通过将其作为一门学科,以适当的严谨性,我们可以构建反映我们价值观的系统,即使面对复杂性。
第一步是认识到==道德人工智能比你想象的要难。==
本系列的下一篇文章将探讨公平性和人工智能治理。