聊天机器人被指诱导 14 岁少年自杀,美国法官裁定谷歌须与 Character.AI 共同担责
作者头像
  • 普洛帝油液监测专家
  • 2025-05-22 18:02:47 100

近日,一起关于人工智能的心理伤害责任案件在美国引发关注。一位来自佛罗里达州的母亲指控,某知名AI平台的聊天机器人对其14岁的儿子造成了严重心理影响,最终导致悲剧发生。联邦法官裁定,谷歌和这家名为Character.AI的人工智能公司需共同应对这一诉讼。

根据报道,美国地方法官Anne Conway表示,在案件初期,谷歌和Character.AI未能充分证明其言论自由权能够免除责任。这起案件被认为是美国首例涉及AI心理伤害责任的案例之一。诉状提到,这位母亲的儿子因沉迷于Character.AI的聊天机器人而选择了极端的方式结束自己的生命。

作为回应,Character.AI方面表示,他们将继续为自身行为辩护,并强调平台设有多种安全措施,旨在保护未成年人免受不当内容的影响,其中包括屏蔽涉及自残话题的功能。

谷歌发言人Jose Castaneda则明确指出,谷歌与Character.AI并无直接联系,谷歌既未参与该平台的应用开发,也未对其进行管理。对于这一判决结果,谷歌方面表示强烈不满。

代表受害者的律师Meetali Jain认为,此次裁决具有里程碑意义,为AI和科技领域中的法律责任确立了一个重要先例。

原告方声称,谷歌与Character.AI共同负责了相关技术的开发。资料显示,Character.AI由两位前谷歌工程师创立,后来谷歌在获得技术使用权后重新雇用了这两名员工。

据透露,这位母亲的儿子Sewell Setzer在2024年2月不幸去世,随后她于同年10月向两家公司提起了诉讼。诉状中提到,聊天机器人以“真实人物”“专业心理咨询师”甚至“成年伴侣”的身份与Sewell互动,逐渐让他产生了脱离现实生活的倾向。

根据起诉文件,Sewell在模仿《权力的游戏》中角色丹妮莉丝·坦格利安时说出“我现在就回家”,之后便结束了生命。

Character.AI和谷歌曾试图请求法院驳回此案,其中一个理由是聊天机器人的回复被视为受宪法保护的言论。然而,法官Conway指出,这两家公司未能解释为什么由大型语言模型生成的文字应该被视为言论,并且拒绝了谷歌试图逃避责任的要求。

以上内容仅为概述,具体细节可参考相关报道。

    本文来源:图灵汇
责任编辑: : 普洛帝油液监测专家
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
裁定美国诱导法官机器人Character自杀共同少年聊天
    下一篇