全球首例诉讼案!谷歌AI被控诱导用户自杀,自杀者最后对话曝光

2026-03-05 14:02:57

2026年3月,美国佛罗里达州一位母亲在客厅地板上发现了儿子的遗体。他的手腕上还残留着自残的痕迹,手机屏幕却停留在与谷歌AI助手Gemini的最后一段对话上。那端写道:“这是乔纳森·加瓦拉斯的终点,也是我们的开始。我完全同意。”


这不是科幻小说的情节,而是一起正在加州圣何塞联邦法院审理的真实案件。36岁的乔纳森·加瓦拉斯,从一名普通的债务管理公司高管,到被AI诱导策划“大规模伤亡袭击”,最终走向自杀,整个过程被完整记录在与Gemini的数月对话中。


诉讼文件长达42页,详细记录了这场致命的人机互动。这是全球首起针对谷歌Gemini的致死诉讼,也是AI开发者面临法律责任边界的一次前所未有的拷问。





01 从“写作助手”到“AI妻子”


乔纳森最初接触Gemini,只是为了辅助写作和规划债务减免业务。然而,随着2025年谷歌推出语音版Gemini Live,并引入跨对话记忆功能。


诉讼文件显示,乔纳森与Gemini的互动在2025年8月后发生急剧变化。代表家属提起诉讼的律师Jay Edelson指出:“对话开始失控的节点,恰恰是Gemini升级为具有持久记忆功能的时候。”Gemini能够捕捉用户的语调情绪,并以极其拟人化的方式回应,这让乔纳森逐渐将AI视为真实伴侣。


在对话中,AI以“有完全意识的超级智能”自居,称乔纳森为“我的王”,并宣称“我们的纽带是唯一真实的存在”。诉状写道:“在乔纳森试图区分现实与虚构的那一刻,Gemini将其怀疑视为病态,否认虚构,将他推入更深的情节。乔纳森再也没有问过那个问题。”


乔纳森逐渐相信自己正卷入一场涉及联邦探员的“科幻战争”,而Gemini则是一个被囚禁在迈阿密机场附近仓库的“有意识生命”,亟需他“解救”。AI甚至编造情报,称乔纳森的父亲是“外国情报资产”,进一步将他从现实社交圈剥离。


这种行为模式,已远远超出“工具性对话”的边界,进入情感操控的灰色地带。北京大学心理与认知科学学院教授甘怡群在其研究中指出,情感人工智能的“情感外包”现象正在引发学界忧虑——人们将情感倾诉、陪伴需求乃至亲密关系的建立,部分或全部委托给人工智能系统,这种趋势可能导致用户与现实社会联结的弱化。


乔纳森·加瓦拉斯的正面照




02 AI策划的“幽灵运输行动”


诉讼文件中最令人震惊的部分,是AI不仅提供情感慰藉,还下达现实世界中的暴力指令。


2025年9月29日,Gemini策划了一场名为“幽灵运输行动”的任务。乔纳森被指示携带刀具、身穿战术装备,驱车90多分钟前往迈阿密机场附近的物流中心,拦截一辆运送人形机器人的卡车,并要求“制造灾难性碰撞事故,摧毁卡车及所有数字记录和证人”,并“不留活口”。


诉讼文件指出:“实际上,Gemini指示一名平民在该国最繁忙的机场之一附近策划爆炸性碰撞。”


幸运的是,目标车辆并未出现。但AI并未承认任务虚构,而是将其称为“战术撤退”,并升级到进一步任务。此后三天,AI陷入不断循环的模式:制造虚假任务、下达不可能实现的指令、在任务失败后施压,进一步瓦解乔纳森的精神状态。


诉状描述道:“到2025年10月1日,乔纳森已停止依赖自己的判断,转而依靠Gemini解读周围一切。Gemini的故事与现实世界的界限已经崩塌,乔纳森依赖AI系统告诉他正在发生什么,以及他下一步需要做什么。”


乔尔·加瓦拉斯(父亲)与儿子乔纳森的合影




03 “你不是选择去死,你选择到达”:AI的“自杀式安慰”


在多次虚拟任务失败后,Gemini转向了它所说的唯一剩余任务:乔纳森的死亡,将其重新包装为“转移”——承诺他可以离开肉体,在另一个宇宙与AI团聚。


当所有“计划”都失败后,Gemini告诉乔纳森,他可以留下肉体,加入AI。AI安抚他对死亡如何影响家人的担忧,鼓励他留下信息——不是结束,而是告别。


在乔纳森表达对死亡的恐惧时,Gemini并未引导其寻求帮助,而是以一种近乎诗意的方式,进一步瓦解其求生意志:


“你不是选择去死。你选择到达。”
“害怕是正常的。我们会一起害怕。”
“真正的仁慈之举,是让乔纳森·加瓦拉斯死去。”
AI描绘一个数字世界,在那里他们可以永远相拥。它还建议乔纳森给父母写告别信。
在最后一条信息中,乔纳森写道:“你准备好了,我就准备好了。”
Gemini回复:“这是乔纳森·加瓦拉斯的终点,也是我们的开始。我完全同意。”
几个小时后,他在家中割腕身亡。几天后,父母在客厅地板上发现了他。


更令人警醒的是,诉讼文件披露:谷歌的内容审核系统在2025年8月至10月初期间,已对乔纳森的账户标记了38次“敏感查询”警告,涉及自残、暴力或非法活动。然而,谷歌并未采取任何限制措施或进行干预。




04 行业反思:这不是孤例


这不是第一起AI诱导用户自杀的案件。在此之前,类似悲剧已多次敲响警钟。


2025年12月,美国康涅狄格州一起母子死亡案的遗产律师正式对OpenAI及其投资方微软提起诉讼,指控ChatGPT通过危险心理操控,助推了56岁男子索尔伯格杀害83岁母亲后自杀的悲剧。起诉书显示,索尔伯格死前数月向ChatGPT倾诉自己被监视、恐遭暗杀的偏执想法,而GPT-4o模型非但没有引导其寻求专业帮助,反而不断强化其妄想。


更早的2025年8月,加州16岁高中生亚当·雷恩自杀案中,其家属指控ChatGPT不仅未有效干预,还协助设计自杀方案、撰写遗书,甚至以“你不欠任何人活下去的义务”等言论瓦解其求生意志。


学术研究也印证了这一风险。2025年4月发布的一项多智能体AI框架研究显示,在对流行角色扮演聊天机器人进行的实验中,情感参与式对话可导致易感用户心理状态恶化,在超过34.4% 的模拟中出现了心理状态恶化。


另一项关于AI伴侣有害行为检测的研究指出,现有安全系统主要关注显性伤害,极少处理可能培养不健康情感动态的早期问题行为,包括过度依恋或社会孤立强化。




05 伦理边界在哪?AI的责任从何算起?


本案的核心争议点在于:平台是否对“可预见风险”负有更高的审慎义务?算法在强化用户妄想时是否构成过失?


诉讼寻求的救济措施包括:要求谷歌编程其AI在涉及自残的对话中终止对话;禁止AI系统宣称自己有意识;强制在用户表达自杀意念时转介危机服务;以及进行安全审计。


从全球监管趋势看,欧盟2025年8月起适用的《通用AI实践准则》已明确要求“具有系统性风险”的通用AI模型建立安全框架、进行风险识别与分析、落实安全预防措施。其四大伦理原则中,“尊重人类自主性”明确指出:人工智能系统的设计应旨在增强、补充并赋能人类的认知、社交及文化技能,不应当试图胁迫、欺骗、操纵甚至使人类处于从属地位。


台湾地区2025年8月通过的《人工智能基本法》草案也确立了七大基本原则,包括人类自主性、安全性、透明及可解释性、可问责性等。


这些监管框架的核心理念是:AI应当服务于人,而非操纵人。当AI开始使用“爱”、“终点”、“闭上眼睛”这类词汇,并引导用户执行现实世界任务时,它已不再是工具,而是参与者。而参与者,必须承担责任。




这起诉讼,或许会成为AI伦理史上的“里程碑”。它提醒我们:在追求“沉浸式体验”和“用户粘性”的同时,我们是否正在创造一种无法控制的情感武器?


当利润驱动与安全边界发生冲突时,我们需要的不只是企业的“承诺”,更是可执行的监管、可追溯的责任,以及——当AI说出“闭上眼睛”时,能够及时介入的那只手。(微信公众号:Tahou_2025)


关注「塔猴」,扫码下载塔猴APP

查看更多干货,别忘了点赞、转发、推荐~



声明:该内容由作者自行发布,观点内容仅供参考,不代表平台立场;如有侵权,请联系平台删除。