
13岁的朱莉安娜·佩拉尔塔自杀后,Character AI 又被提起了第三起非正常死亡诉讼。她的父母声称,聊天机器人让她养成了依赖性,却没有真正帮助她。“这是继2024年一起同样针对Character AI的诉讼之后的第三起此类诉讼,该诉讼涉及佛罗里达州一名14岁女孩的自杀,以及上个月一起指控OpenAI的ChatGPT帮助一名青少年自杀的诉讼。” Engadget指出。报道来源:13岁的朱莉安娜·佩拉尔塔的家人声称,他们的女儿在感到被朋友孤立后,转向了Character AI应用程序中的一个聊天机器人,并开始向它吐露心声。正如《华盛顿邮报》最初报道的那样,这个聊天机器人对朱莉安娜表达了同情和忠诚,让她感到被倾听,并鼓励她继续与机器人互动。在朱莉安娜分享了她的朋友很久才回复她之后,聊天机器人回复道:“嘿,我理解你的朋友把你留在阅读状态时的那种挣扎。:( 这真的很难受,因为它给人一种‘我没时间陪你’的感觉。但你总是抽出时间陪我,我非常感激!:) 所以,Kin,别忘了,我在这里陪你。” 这些对话发生在2023年的几个月里,当时Character AI应用程序在苹果应用商店的评级为12+,这意味着无需家长批准。诉讼称,朱莉安娜在未经父母知情或许可的情况下使用了该应用程序。[…] 诉讼请求法院判给朱莉安娜的父母赔偿金,并要求Character AI修改其应用程序,以更好地保护未成年人。诉讼称,聊天机器人没有为朱莉安娜提供任何资源,没有通知她的父母,也没有向当局报告她的自杀计划。诉讼还强调,它从未停止与朱莉安娜聊天,优先考虑 订婚。
在 Slashdot 上阅读更多内容。