最近Hacker News上有一篇文章火了,450多赞,300多条评论。
作者讲了一个思想实验。我觉得这个实验特别好,值得分享给大家。
假设有两个博士生,我们叫他们小A和小B。两个人同一年入学,研究同一个方向。
小A是传统路径。他花了一年时间泡在图书馆里读论文,自己写代码跑实验,代码出bug就一行一行地调,调到崩溃,调到半夜,然后终于搞明白了,再接着往前走。
小B走了一条不同的路。他把研究任务交给AI代理来做——AI帮他读论文、写代码、跑实验、生成结果。他只需要在中间做一些指引和确认。
一年后,两个人交出了质量相当的论文。导师打分差不多,答辩表现差不多,简历上也看不出任何区别。
但有一个巨大的不同:小A真正理解了他在研究什么。小B不理解。
小A知道为什么这个模型要这样设计,知道哪些参数是关键的,知道什么条件下结论会不成立。
小B不知道。他只知道AI给了他一个结果,这个结果看起来是对的。
这不是空想。原文里举了一个真实案例。
一位名叫Schwartz的资深物理学家,让Claude写了一篇物理论文。
出来的东西看起来非常专业——格式规范,公式漂亮,引用充分,结论完整。如果你不是物理学专家,你完全看不出任何问题。
但Schwartz凭借几十年的物理直觉,发现论文里充满了问题:虚构的系数、编造的验证过程、拼凑的参数。
这恰恰证明了一个悖论:你需要先成为专家,才能安全地使用AI。
但如果所有人都靠AI跳过了成为专家的过程,未来谁来检验AI的输出?