三体里的ETO组织,在现实中出现了——还往奥特曼家里扔了燃烧弹

48小时之内,奥特曼的家遭遇了两次袭击。

第一次,凌晨3点45分,一个20岁的年轻人向他家扔了一个自制燃烧弹。第二次,第二天早上,一辆车停在他家门口,车上的人向房子开了枪。

而他不是唯一的目标。在印第安纳波利斯,一个市议员的房子被射了13枪,院子里留着一张纸条:「不要数据中心」。去年6月,洛杉矶的抗议者烧毁了5辆Waymo无人出租车。在曼哈顿,示威者游行到苹果零售店门口,用石头砸碎了手机。

安保行业的判断很悲观。2024年底联合健康CEO被枪杀之后,企业高管安保支出大幅飙升。安全公司的专家说:「高管比以往任何时候都更脆弱」「威胁在持续上升」,而且随着AI相关诉讼和负面报道的增加,他们预期暴力只会更多。

有人把这些事串在了一起写了一篇文章,标题很直白:「AI将遭遇暴力,而且不会有好结果」。核心论点是:暴力反弹是结构性必然。

他说得对吗?

部分对。暴力确实在发生,确实会更多。但文章少问了一个关键的问题——然后呢?

砸完了机器,烧完了CEO的房子,然后呢?

1812年,英国纺织工人梅勒枪杀了一个磨坊主。在那之前,成千上万的工人砸毁了纺织机。他们有一个名字:卢德分子。

200多年后的今天,有人把这段历史拿出来和奥特曼的遭遇做对比。历史在押韵,他们说。

确实在押韵。但押韵的部分不是他们强调的那个。

大多数人只记住了「工人砸机器」这个画面。但真正值得记住的是结局:砸机器的人,一个都没赢。

纺织机没有因为暴力而消失。工业革命没有因为抗议而停下。梅勒被绞死了。其他卢德分子要么被流放澳大利亚,要么回到了更恶劣的工作条件里。

而那些没有砸机器的人呢?有人学会了操作新机器,有人去了新兴的铁路行业,有人搬去了新工厂。他们没有赢得战斗,但他们赢得了未来。

卢德运动真正的教训不是「工人会反抗」——而是「反抗从来不如适应有效」。

01 奥特曼们的沟通灾难

不过,在说「要适应不要反抗」之前,有一件事必须说清楚:科技领袖们在这件事上的沟通方式,是灾难级别的。

Anthropic的CEO公开说:AI可能在五年内取代一半的入门级白领岗位。奥特曼自己也承认:「对AI的恐惧和焦虑是合理的。」

你一边说AI会取代大量工作,一边让被取代的人给你付订阅费。你说「恐惧是合理的」,但你每天都在加速制造这种恐惧的来源。你的公司估值几千亿,而你告诉即将被你取代的人:别怕。

这种沟通不是在安抚人,是在挑衅。

OpenAI也意识到了问题。就在奥特曼家被炸的前几天,他们发布了一份13页的政策文件,提议公共财富基金、机器人税、四天工作制、扩大医保。听起来很美好。

但专家一眼看穿了。卡内基国际和平基金会的学者直接说:这是「为监管虚无主义提供掩护的公关行为」——OpenAI希望社会吸收AI的冲击,而不是接受开发减速。前联合国AI政策负责人说得更直接:OpenAI是这场对话中「利益最相关的那一方」。

让最大的受益者来设计利益分配方案,就像让赌场老板来起草赌博监管法。方案里也许有合理成分,但利益冲突大到离谱。

暴力不对。但这种愤怒,完全可以理解。

02 恐惧叙事的暴力化

但这里有一个几乎所有中文媒体都忽略了的事实。

回头看向奥特曼扔燃烧弹的那个20岁年轻人——他不是一个被AI抢了工作的人。

他没有失业。他没有被裁员。他没有任何个人层面的AI受害经历。

他是一个被「AI会灭绝人类」这个叙事说服的人。他在PauseAI的社群里活跃,在网上写了大量关于AI存在性威胁的帖子。他的暴力不是来自失业的绝望,而是来自一种末日信念。

这和大多数媒体的叙事框架完全不同。大多数报道把反AI暴力归因为「被AI抢了工作的人的愤怒」——但至少在这个案例里,攻击者根本不是一个被AI影响了生计的人。他是一个被特定意识形态说服的人。

AI末日论正在制造自己的极端分子。

从「AI可能有风险」到「AI会毁灭人类」到「必须不惜一切代价阻止AI」到「暴力是正当防卫」——这个滑坡和环保极端主义的路径一模一样。PauseAI、AI安全运动中的一些声音,在客观上为暴力提供了思想弹药。

我不是说AI安全不值得讨论。它当然值得讨论。但当讨论的框架变成了「存在性威胁」和「人类灭绝」,你就不能假装意外,当有人把这个框架当真之后采取了行动。

暴力的来源不只是意识形态。还有一种更普遍的愤怒——来自错误的归因。

很多公司拿AI当借口裁员,真正的原因是经济周期或管理失败。但「被AI取代了」是一个更好的叙事——对公司来说可以转移责任,对媒体来说可以制造流量。AI正在变成一个万能替罪羊,承受着远超它实际造成伤害的愤怒。

当愤怒被过度放大、目标被模糊化的时候,暴力就不再是一种抗议,而变成了一种宣泄。宣泄完了,什么都不会改变。

03 我的看法

2013年诺基亚停产塞班系统,2014年微软收购后裁员18000人。当时全世界最顶尖的一批移动开发工程师,一夜之间从行业巅峰跌落。

有人转型成功——诺基亚的内部转型计划催生了约400家创业公司。但更多人经历了剧烈的落差。有高管找不到同等薪水的工作,最后去考了重型车驾照当公交司机。重新就业的人,很多薪水降了三分之一。

中国也有过类似的场景。高速公路推行电子收费,大批收费员被裁。唐山一个36岁的收费员在镜头前哭着说:「我的青春都交给收费了,我现在啥也不会。」 她要求政府给她安排出路。

诺基亚工程师和唐山收费员,技术含量天差地别,但面对冲击的反应只有两种:转身去学新东西,或者站在原地要求世界停下来等你。

转型不容易。很多人转型后收入骤降,生活质量下滑。但他们至少还在牌桌上。

我曾经在电脑城卖电脑,那个行业后来被电商冲垮了,而我早就主动转向了软件、互联网。

我从来不觉得自己的饭碗应该被保护。每一次行业洗牌都有人骂、有人等、有人走。走的人赢了。

但我也知道,不是每个人都有条件「说转就转」。一个45岁的卡车司机不可能像25岁的程序员一样轻松切换赛道。这是真实的问题,不能用「你应该学习」几个字打发。

所以真正需要讨论的,不是要不要发展AI——这个没有讨论余地——而是在AI高速推进的过程中,被甩下来的人怎么办。

这个问题,不该由最大的受益者来定义答案。

最后

三体里的ETO组织,在现实中出现了——还往奥特曼家里扔了燃烧弹。但说实话,正确的靶子在哪里,现在没有人知道。

OpenAI的13页政策提案不是答案。PauseAI的燃烧弹更不是。技术在加速,暴力在升级,而「被甩下来的人怎么办」这个问题,全世界还停留在写白皮书和互相指责的阶段。

安保专家说暴力只会越来越多。我觉得他们是对的。在这个问题真正被解决之前,愤怒不会消失,砸机器的人也不会停手——虽然200年的历史已经证明,砸机器从来不管用。

这是一个悲观的判断。

但作为个体,我们可以选择不站在原地等。历史上没有哪一次技术革命的转型方案是提前设计好的。它最终是被无数个体的选择推动的——有人学了新技能,有人搬去了新城市,有人创造了上一代人想象不到的工作。

答案不会从任何一份政策文件里蹦出来。它会从每一个选择往前走、而不是往回看的人身上长出来。

参考文献:

AI Will Be Met with Violence, and Nothing Good Will Come of It — The Algorithmic Bridge
Attack on Altman home prompts new fears: Is the AI backlash getting dangerous? — SF Standard
OpenAI published a New Deal for AI. Days later, someone firebombed Sam Altman's house. — SF Standard
Violence against Sam Altman shows growing AI divide — Axios
Surviving Nokia: How Oulu rebounded from the collapse of its largest employer — VentureBeat