用于招聘流程的人工智能工具已成为热门类别,但司法部警告说, 粗心地使用这些流程可能会导致违反美国保护残疾人平等机会的法律。如果您的公司使用算法排序、面部跟踪或其他高科技方法对申请人进行排序和评级,您可能需要仔细看看他们在做什么。
该部门的平等就业机会委员会(Equal Employment Opportunity Commission)负责关注行业趋势和与同名事项有关的行动并提供建议,该委员会已经发布了关于公司如何安全使用基于算法的工具而不会有系统地排斥残疾人的风险的指南。
“新技术不应成为新的歧视方式。如果雇主意识到人工智能和其他技术可能歧视残疾人的方式,他们可以采取措施防止这种情况发生,”EEOC 主席 Charlotte A. Burrows 在宣布该指南的新闻稿中说。
指导的一般意义是认真思考(并征求受影响群体的意见)这些过滤器、测试、指标等是否衡量与工作相关的质量或数量。他们提供了几个例子:
- 有视力障碍的申请人必须完成包含视觉组件的测试或任务才能获得面试资格,例如游戏。除非这份工作有视觉成分,否则这会不公平地排除盲目的求职者。
- 聊天机器人筛选器会询问措辞或设计不佳的问题,例如一个人是否可以连续站立几个小时,如果回答“否”,则申请人将失去资格。坐在轮椅上的人当然可以做许多人可能代表的工作,只是从坐姿开始。
- 基于 AI 的简历分析服务会因就业差距而降低申请的排名,但该差距可能是由于与残疾或状况相关的原因,因此不应受到处罚。
- 基于语音的自动筛选器要求申请人以语音方式回答问题或测试问题。当然,这不包括聋哑人和听力障碍者,以及任何有语言障碍的人。除非工作涉及大量演讲,否则这是不合适的。
- 面部识别算法在视频采访期间评估某人的情绪。但此人有神经发散性,或因中风而患有面瘫;他们的分数将是异常值。
这并不是说这些工具或方法中没有一个是错误的,或者在根本上违反法律的歧视性。但是使用它们的公司必须认识到它们的局限性并提供合理的便利,以防算法、机器学习模型或其他一些自动化过程不适用于给定的候选人。
拥有可访问的替代方案是其中的一部分,而且对招聘过程保持透明,并预先声明将测试哪些技能以及如何测试。残障人士最能判断他们的需求是什么,以及需要什么样的便利条件(如果有的话)。
如果一家公司没有或不能为这些流程提供合理的便利——是的,包括由第三方构建和运营的流程——它可以被起诉或以其他方式对这种失败负责。
像往常一样,这种事情越早考虑越好;如果您的公司尚未就招聘、网站和应用程序访问以及内部工具和政策等问题咨询无障碍专家,请着手处理。
同时,您可以在此处阅读 DOJ 的完整指南,这里有一个针对认为自己可能受到歧视的工人的简短版本,出于某种原因, 这里还有另一个截断版本的指南。