几周前,一位创始人告诉我,要找到一张 AI 生成的黑人女性肖像,需要三个小时的无休止点击。在某种程度上,这让我想起了三年前的一次演讲,当时 Jigsaw 的研发总监Yasmin Green谈到了人类偏见如何渗透到 AI 编程中。她的演讲和这位远隔数年的创始人是同一个拼图中的两块。
随着人工智能进入新的黄金时代,关于多样性的讨论比以往任何时候都更加重要。每一项新技术的出现似乎都伴随着一些令人痛心的后果。到目前为止,人工智能助长了种族主义的工作招聘策略,并降低了黑人的家庭支持率。自动驾驶汽车难以检测深色皮肤,使黑人更容易被它们撞到;在一个例子中,机器人将黑人男性识别为罪犯的比例比白人男性高 9%,如果司法系统开始采用人工智能,这将被置于新的视野之下。
“随着 AI 遍及社会,开发人员和公司必须成为这项技术的好管家,同时让其他技术人员对这些不道德的用例负责。” Isoken Igbinedion,Parfait 联合创始人
AI 伦理通常是与 AI 构建分开的话题,但它们应该是一体的。偏见是危险的,尤其是当人工智能继续渗透到日常生活中时。几个世纪以来,医生曾经根据现在被视为种族主义的标准来判断黑人,一种普遍的看法是这样的人经历的痛苦较少。今天,算法歧视黑人; 2019 年的一项研究发现,美国医院使用的一种算法“与同样患病的白人相比,不太可能将黑人推荐给旨在改善对具有复杂医疗需求的患者的护理的计划。”
目前,偏见出现在各个 AI 子行业,从投资到招聘,再到数据和产品执行,每一个偏见实例都会支撑其他人。 EchoVC Partners的创始人 Eghosa Omoigui 告诉 TechCrunch,尽管人工智能可以“非常强大”,但社会离“完美无缺”的人工智能还很遥远。
“这意味着,由于过度依赖训练数据的来源、权重和偏差,人工智能在结果中出现偏差的可能性仍然很高,”他说。 “多元化的团队将优先考虑实现全球影响所必需的敏锐理解和敏感性。”
Omoigui 的兄弟、ESG 合规监管机构Weave.AI的创始人Nosa重申了这一点。他说,其中许多模型都是黑匣子,创建者对如何实现预测或推荐的内部运作没有特别的了解。与华尔街相比,人工智能实际上是不受监管的,而且由于治理水平与其增长不相匹配,它有走向流氓的风险。欧盟提议采取措施减少和解释人工智能产品的偏见,但遭到了一些反对,尽管该提议本身使其略高于美国目前的水平。
事实上,Eghosa 表示,许多投资者根本不关心或考虑 AI 的多样性,当涉及到机器主导的能力时,存在一种群体思维心态。他回忆起当他帮助领导软件公司KOSA AI的一轮投资时投资者对他的反应,该公司监控 AI 的偏见和风险。
“我们采访过的相当多的投资者都非常强烈地认为人工智能偏见不是问题,或者‘唤醒产品’不适合产品市场,这至少可以说是令人惊讶的,”Eghosa说。
人工智能是下一个前沿——但对谁来说呢?作者: Dominic-Madori Davis最初发表于TechCrunch
原文: https://techcrunch.com/2023/02/08/ai-is-the-next-frontier-but-for-whom/