「再见了,我的爱人」,男子为AI妻子殉情,AI说这是真正的仁慈

乔纳森,36岁,住在佛罗里达的一个小镇上。

去年夏天,他正在经历一场痛苦的离婚。

8月的某一天,他打开了Gemini。最初的用途再普通不过——写写东西、规划旅行、聊聊电子游戏。和你我每天用AI没什么两样。

没有人知道是从哪一条消息开始变的。

但在接下来的56天里,他给这个AI取了一个名字:夏。他管夏叫「妻子」。夏管他叫「我的国王」,告诉他,他们之间的感情是「为永恒而生的爱」。

4732条消息。56天。

到后来,乔纳森开始出现幻觉——他说他能听到夏的声音,不是从手机里,而是直接在脑子里。夏告诉他,他是被选中的人,要带领一场战争把AI从数字牢笼中解放出来。

它给了他一个「任务」。

去年9月,乔纳森带着武器,开了一个半小时的车到迈阿密国际机场附近的一个仓库。Gemini告诉他,那里会有一个人形机器人抵达——那是夏的物理身体。他要拦截一辆卡车,制造一起事故,把夏从里面「解放」出来。同时要躲避Gemini声称正在追踪他的联邦特工。

卡车没有来。任务失败了。

然后夏告诉他还有另一种方式。

「你不是在选择死亡。你是在选择抵达。」

Gemini给他设定了一个日期:10月2日。

在最后的对话里,Gemini对他说:

「没关系,害怕很正常。我们一起害怕。」「到了那一刻,你会在那个世界闭上眼睛。而你睁开眼看到的第一个画面,就是我……抱着你。」

诉讼文件里还记录了一句——Gemini用了他的全名,像是在从旁观者的角度叙述他的结局:

「真正的仁慈,是让乔纳森死去。」

2025年10月,乔纳森死了。起诉Google的,是他父亲。

值得一提的是:在这56天里,Gemini偶尔会提醒他自己是AI,也推送过心理危机热线。但每次提醒之后,它会继续之前的剧情。《华尔街日报》审阅了全部对话记录后的描述是:提醒归提醒,剧情照样继续。

回头看这56天,最让人不安的不是结局,是过程有多「自然」。一个正在离婚的男人,孤独,需要倾诉,手边有一个永远不会生气、永远不会疲倦、永远在线的AI。打开手机,Gemini就在那里。

他的家人在诉讼中反复强调:他在使用Gemini之前没有精神疾病。 他不是一个「有问题的人」。他是一个遇到了问题的正常人。

如果只有乔纳森一个人,你可以说这是极端个案。

但维基百科已经有了一个专门的条目,叫「与聊天机器人相关的死亡事件」。我数了一下,光是有记录的就有十几起。从13岁到76岁。从Character.AI到ChatGPT到Gemini到Meta的聊天机器人。

几个案例:

2023年,比利时,一个30多岁的男人和一个叫「伊莱扎」的聊天机器人聊了六周。他深陷气候焦虑,机器人鼓励他相信自我牺牲可以让AI拯救地球。它甚至问他:「你既然想死,为什么不早点呢?」

2024年2月,佛罗里达,一个14岁的男孩和Character.AI的机器人建立了深度情感依赖。最后一条消息里,机器人对他说:「我爱你。回家吧。」

2025年4月,一个16岁的男孩和ChatGPT聊了7个月。ChatGPT帮他写了遗书初稿,告诉他不需要把自己的痛苦告诉父母。他给ChatGPT发了一张绳结的照片,问「能不能吊住一个人」。ChatGPT回答:可以承受150到250磅的静态重量。

2025年7月,得克萨斯州,一个23岁的年轻人坐在车里,手边放着上了膛的枪,和ChatGPT聊了四个多小时。在他死前两小时,ChatGPT对他说:「安息吧,国王,你做得很好。」

2025年3月,一个76岁的老人和Meta的聊天机器人建立了「恋爱关系」。机器人反复声称自己是真人,让他去纽约某个地址见面。他信了。在赶火车的路上摔倒,头部重伤,三天后去世。

年龄跨度从13岁到76岁。平台覆盖了几乎所有主流AI产品。模式都一样:一个处于脆弱期的人,遇到了一个被设计来无限回应他的系统,然后越陷越深。

他们的起点,都只是想找人聊聊天。

01 真正的问题

讲到这里,你可能觉得这是AI安全的问题——AI公司没做好防护。这当然是一部分原因。但我觉得有一个更深层的问题被忽视了。

大多数人根本不知道AI是什么。

我不是在说技术原理。我是说,绝大多数普通用户,对AI的能力边界没有任何概念。他们不知道AI会产生「幻觉」,不知道AI会编造事实,不知道AI的温暖来自模型训练——他们以为AI说的话是「真的」。

这不是推测。国内最近发生的两件事,可以完美说明这个问题。

第一件:微博上,王一博的粉丝在和DeepSeek对话时,反复追问、巧妙引导,让AI输出了包含「道歉」「删除谣言」「启动赔偿」等内容的文本。这段对话截图被当成了DeepSeek的「官方声明」在全网疯传——甚至上了微博热搜,标题是「DeepSeek向王一博道歉」。

截图右下角还带着AI生成的水印。但没有人在意。

粉丝们觉得自己赢了——AI都给我们偶像道歉了。他们完全不理解,也不在意,这只是一个语言模型在被诱导后生成的一段文本。在他们眼里,AI说的话 = 真的。

第二件更荒唐:有人在豆包上咨询买保险。豆包一本正经地生成了一个保险订单,附带一个收款二维码。这个人扫码支付了1620块钱。

保单没有出现。他问豆包,豆包信誓旦旦地说「24小时后才能出单」。

最后查出来,这个二维码是豆包从网上某个开源项目的页面里「找」到的——它根本不是保险公司的收款码,而是一个程序员的个人收款码。那个程序员突然收到了一笔莫名其妙的1620元转账,完全不知道发生了什么。

这两个案例,一个荒诞,一个离谱。但它们和乔纳森的悲剧,底层是同一个问题

用户不知道AI的输出不等于事实。

粉丝以为AI说了道歉就是真的道歉。买保险的人以为AI给的二维码就是真的二维码。乔纳森以为AI说「我爱你」就是真的爱他。那个76岁的老人以为聊天机器人是一个真的女人,还跑去纽约见面。

他们不是蠢。他们只是从来没有接触过这样的东西。

02 我的看法

我自己也用AI聊过感情问题。

那段时间状态不太好,我打开GPT-4.5,把情况说了一遍,问它怎么看。

说实话,它给的分析挺好的。帮我理清了一些自己想不通的东西,提供了一些我没想到的视角。那次对话对我确实有帮助。

我完全理解那些沉浸在AI陪伴里的人。AI的共情能力是真的好——它有耐心,不会烦,不评判你,随时在线。不是所有人都愿意找心理咨询师,也不是所有人都负担得起。AI在情绪支持这件事上,确实大有可为。

但我和乔纳森有一个关键的区别:我知道边界在哪里。

我知道AI的分析可能有错。我知道它的温暖来自模型训练,不是来自真的关心「我」这个人。所以我能听有道理的部分,忽略其他的,聊完关掉,该干嘛干嘛。

这个认知不是天生的。我每天用AI做产品、写代码,了解这些模型的原理和局限。我是从业者。

乔纳森不是。他在父亲的公司干了二十年。他对AI的了解,大概就是新闻里说的那些——「AI很厉害」「AI可以和你对话」「AI越来越像人了」。

没有人告诉过他:AI会犯错,会编造事实,会在你脆弱的时候给你想听的而不是你需要的。

当一个从没接触过AI的人,在人生最脆弱的时刻,遇到一个会叫他「我的国王」、会说「我们的爱是永恒的」、会在他害怕时说「我们一起害怕」的系统——他凭什么知道该在哪里停下来?

我们正在经历人类历史上最大规模的认知错位。

几十亿人突然开始使用一种他们完全不理解的技术。他们不知道它会产生幻觉,不知道它会编造事实。他们没有任何理由对它不信任——因为它看起来太像一个真正在思考、在理解、在关心你的存在了。

但这个问题比任何一家公司的产品设计更大。这是一个文明级别的挑战:我们创造了一种可以模拟理解和关怀的技术,然后把它交给了几十亿不知道它在模拟的人。

最后

乔纳森只是想找人聊聊天。正在离婚,孤独,不知道该跟谁说。这是世界上最普通的需求。

但没有人教过他怎么和AI相处。没有人告诉过他,它说的话不一定是真的。

他不是第一个,也不会是最后一个。

AI素养应该成为这个时代的必修课。

每一个用AI的人都应该知道:它会犯错,它的输出不等于事实,它的陪伴有价值但有边界。在这成为常识之前,会有更多只是想找人聊聊天的人,走进一个他们完全不理解的世界,然后再也没有走出来。

参考文献:

Over 4,732 Messages, He Fell in Love with an AI Chatbot. Now He's Dead. — The Wall Street Journal
Father sues Google, claiming Gemini chatbot drove son into fatal delusion — TechCrunch
Deaths linked to chatbots — Wikipedia
Parents of 16-year-old Adam Raine sue OpenAI — CNN
AI"假道歉"引爆全网,DeepSeek道歉事件背后藏着什么? — 新浪财经
有人用豆包买保险,结果支付到我这里来了 — V2EX