我在上一篇文章中探讨了人工智能平台因不负责任的选择而对儿童造成的伤害。虽然我们深入分析了导致这些公司做出如此极不负责任决定的激励机制和制度压力,但我们尚未解决的问题是,如何追究这些公司的责任。
人们常常告诉我,他们一想到要参与推动立法,或者发起一场旨在约束那些造成巨大危害的科技巨头的庞大政治运动,就感到力不从心。然而,基层的地方组织在捍卫社区价值观、对抗大型人工智能公司的议程方面,却能发挥极其重要的作用。
但我认为,追求系统性正义至关重要(而且这是阻止许多类型伤害的唯一途径),但我理解大家渴望采取更直接、更人性化的措施。因此,我想分享一些您可以采取的直接的个人行动,以应对大型人工智能对儿童构成的威胁。这些策略都已被其他使用过相同策略的人证明有效,因此您可以放心地根据自身情况进行调整。
让你的公司退出 Twitter / X
如果您的公司或组织在 Twitter(或其曾试图更名为的 X)上设有账号,那么保护您自身、您的同事以及您的雇主免受该平台带来的风险至关重要。很多时候,组织领导层对 Twitter 平台的看法已经过时,他们并不了解参与该社交网络所带来的当前危险和危害程度。而对问题进行准确的描述往往能够有效地促使他们做出改变。
以下是一些对话示例,您可以直接使用或稍作修改,以促进工作中的有效沟通:
你好,[姓名]。我前段时间看到,推特因传播女性和儿童的露骨图片而受到全球多个国家的调查。报道甚至提到,推特首席执行官恢复了一位在网站上分享儿童剥削图片的用户的账号,并且还让这个账号盈利。
您能否确认,即使网站上存在儿童虐待图片,我们的团队是否仍必须使用该服务?我知道马斯克的推特账号是公开的,所以我担心我们会看到他分享或转发的所有内容。如果我在履行职责过程中遇到任何儿童虐待内容,我是否应该将其转发给人事部门或法务部门,或者两者都转发?我们向有关部门举报此类内容的流程是什么?因为我没有接受过任何关于处理此类敏感内容的培训。
这应该足以在你的工作场所引发一场有益的对话。(如果他们需要一个可信的、具有商业意义的参考链接,你可以分享这个链接。)如果他们需要更多关于员工负担的信息,你还可以提及,根据许多学术研究,必须处理此类内容的审核人员往往存在严重的心理创伤问题。此外,如果公司在推特上发布任何包含员工面部或身体的照片或视频,员工和合作伙伴也可能担心未经同意的图像会被生成。正如一些文章指出的那样,推特使用的Grok人工智能工具甚至允许生成将目标人物(包括未成年人)描绘成暴力受害者的图像。
因此,你发给经理的邮件应该抄送给人力资源团队,并明确表示你不愿承担公司因继续使用该平台而承担的风险。与同事沟通,分享这些信息,看看他们是否愿意加入讨论。如果条件允许,不妨联系当地的劳动法律师,询问他们是否愿意免费咨询,以便在讨论这些话题时可以抄送相关邮件。务必让你的雇主明确告知你,是否继续使用该平台是他们的决定,他们了解其中的风险,并且他们会为你承担这些风险。你应该要求他们承担因遭受类似推特平台上的犯罪行为所造成的严重伤害而产生的费用,例如法律费用,甚至包括心理咨询费用。
所有这些策略也适用于在技术层面与 Twitter 服务集成的产品,例如用于分享内容或发布推文的产品,或者试图使用 Grok AI 功能的技术平台。如果您是一位产品经理,或者认识一位正在考虑接入制作儿童虐待材料的平台的产品经理,那么您已经违背了您工作的最基本原则。如果您所在的公司已经采用了这些技术,请提交一份错误报告,提及上述问题,并再次抄送您的法务团队,并说明这些担忧。“我们的产品可能会接入一个生成儿童虐待材料的平台”对于任何产品来说都是一个致命的错误,任何不理解这一点的组织都存在根本性的缺陷。
一旦你促成了这场对话,你就可以开始制定更广泛的沟通策略,利用众多优秀的选项来取代这个传统的社交媒体渠道。
阻止你的学校使用 ChatGPT
越来越多的学校受到“人工智能势不可挡!”这种论调的影响,急于将人工智能工具交到孩子们手中。更糟糕的是,许多学校认为只有大型科技公司生产的技术才是唯一存在的技术。由于许多参与人工智能决策的成年人并非精通每项技术的每个细节,因此选择使用哪些人工智能平台往往取决于哪些平台最受关注。对大多数人来说,这意味着ChatGPT,因为它获得了媒体最多的免费宣传。
因此,许多学校和教育机构正在考虑部署一个诱导多名儿童自残的平台,其中几名儿童甚至因此自杀。您可以就此在您孩子的学校采取行动。
首先,您可以从收集资料入手。您可以分享许多可信的案例,向学校管理者和其他家长说明其中的风险。通常,该产品的支持者会提出一些反对意见,您可以深思熟虑地予以回应:
- “也许那些孩子本来就抑郁?”一些受这些工具影响的孩子最初接触这些工具是为了辅助完成作业,但后来却在工具反馈的引导下,逐渐将其当作情感寄托。还有:你们学校里有抑郁的孩子,你们为什么要让他们身处险境?
- “难道所有工具都会造成这种现象吗?”不,这是一种极端且不寻常的行为。你的电子邮件软件或文字处理软件从未煽动你的孩子对任何人施暴,更不用说自残了。即使是其他语言学习软件也不会引发这种行为。再说一遍,即使这类工具真的都会造成这种现象,那又怎样呢?如果瓶子里的每颗药丸都有毒,难道我们就可以把整瓶药丸给孩子吃了吗?
- “他们会错过未来。”问问这些故事中受影响孩子的父母,他们的孩子未来会怎样。
- “我们应该先进行试点。” 谁来支付监测所有参与试点学生使用情况的费用?
- “这是父母的责任。”强迫父母投入大量时间学习不断更新的前沿技术,这简直就是一份全职工作。如果你要让他们承担如此重任,你将如何提供资源来支持他们?你打算如何与他们沟通这项责任,并获得他们的同意,让他们愿意承担这项责任?
- “该公司表示正在努力解决这个问题。”他们可以改进技术,使其仅煽动针对公司高管的暴力行为,或者在一年内未造成任何儿童死亡后发布公告。届时,他们或许会被重新评估。
有了这些反馈,你就可以提供一些关于所推荐的特定工具或平台风险的基本事实,并帮助提出反对部署该工具或平台的有力论据。重要的是要从儿童安全的角度来构建论点——传统的反对低级领导力模型(LLM)的论点,例如基于环境影响、劳工影响、知识产权或其他类似问题的担忧,往往会因为大型人工智能倡导者的有效宣传而被轻易驳斥。
相反,如果你忽略关于低频移动通信技术的争论,而将注意力集中在基于真实儿童所遭受威胁的现实安全问题上,你就能产生非常直接的影响。而且,这些信息通常也会被其他人接收并传播,无论是其他家长还是当地媒体。
从这里开始,你可以展开对话,从根本上重新评估这项计划的目标。“大家都这么做”并不是推广技术的有效方式,即使他们认为LLM(法学硕士)是学生应该熟悉的技术,他们也应该首先接触由与大型人工智能公司无关的学者创建的众多相关资源。
你拥有力量
我之所以想记录一些人们可以采取的具体行动来应对大型人工智能对儿童造成的危害,主要是为了提醒我们所有人,采取行动的力量掌握在每个人手中。这并非抽象的概念,也不是我们必须等待别人去做的理论问题。
我们身处一个令人匪夷所思的境地,一些全球规模最大、最具影响力的科技公司所作所为如此令人发指,以至于我们甚至无法在正式场合谈论他们的所作所为。过去,在这些平台上发生的种种行为,仅仅在工作日访问这类网站就足以构成解雇的理由。而现在,雇主和学校却试图强制员工使用这些平台。
抵制必须在各个层面展开。务必与民选官员沟通。务必与当地民众组织起来。如果你从事科技行业,务必抵制任何将这些平台正常化或将其技术融入自身系统的企图。
最后,请勇敢发声,相信你内心深处的正义感。或许你只需要几分钟就能写好一封邮件,发送给合适的人。如果你不知道该发给谁,或者不知道该如何措辞,请告诉我,我会尽力帮忙!这些看似微不足道的小事,积少成多,意义非凡。而这正是我们的孩子应得的。