第一篇说过,时间是进化唯一的裁判。但物理学告诉我们一个令人不安的事实——

在基本物理方程里,时间根本不存在。

物理学里没有时间箭头

E=mc² 没有时间变量。牛顿力学的运动方程把 t 换成 -t,方程依然成立。麦克斯韦方程、薛定谔方程、爱因斯坦场方程——所有基本物理定律都是时间对称的。

把一段物理过程倒放,方程不会告诉你哪个方向是“正确”的。在基本物理层面,过去和未来没有区别。

那我们感受到的时间——从过去到未来、不可逆转的那个时间——是从哪来的?

时间是熵的涌现

答案藏在热力学第二定律里:孤立系统的熵只增不减。

这不是基本定律,是统计现象。把一滴墨水滴进水杯,它会扩散开来。理论上每个水分子和墨水分子的运动都可以反转,墨水可以重新聚回一滴。但概率低到宇宙的寿命都等不到。

时间的方向不是写在物理定律里的,是从熵增中涌现出来的。 我们感受到的“过去”和“未来”,不过是低熵状态到高熵状态的统计趋势。

时间不是基础设施,是涌现。

进化的时间

进化跟物理共享同一个结构:时间不是预设的,是过程产生的。

物理里,时间从熵增涌现。进化里,时间从代际累积涌现。

每一代复制、变异、筛选,构成了一个不可逆的链条——不是因为物理定律规定了方向,而是因为信息在累积。基因组记录了所有祖先的生存策略,每一次突变都叠加在前面所有突变之上。这种累积性创造了进化的时间箭头。

蓝藻活了 35 亿年,不是因为它在某个时刻特别强大,而是因为它在 35 亿年的每一个时刻都“够用”。进化的时间不是物理时间的长度,是累积的深度。

第一篇说“时间是唯一的裁判”——现在可以更精确地说:累积性是唯一的裁判。 时间只是累积性的载体。

LLM 没有时间

一个 LLM 做一次推理:输入 token,输出 token,结束。没有前一次的记忆,没有后一次的预期。每次推理都是一个孤立的、无时间的事件——像一颗粒子在时间对称的方程里,不知道过去也不知道未来。

训练看似给了模型“历史”——它见过的所有文本都压缩成了参数。但这不是累积,是快照。模型不会在推理过程中改变自己的参数——它不积累经验,不修改自身,不因为使用而变化。

LLM 缺的不是时间,是累积性。

没有累积性,就没有时间箭头。没有时间箭头,就没有进化。模型可以在一次推理里模拟进化的推理,但它自身不进化——就像一张照片可以拍下河流,但照片本身不流动。

熵增与进化的反向关系

这里藏着一个更深的结构。

物理的时间箭头指向熵增——从有序到无序。进化的时间箭头指向复杂性增长——从简单到复杂,从无序到有序。

表面上看,进化在逆熵。但实际上不是。生物体维持自身的低熵结构,代价是向环境倾倒更多的熵。地球生命整体上是一个耗散结构——它用太阳的低熵能量维持自身的有序,同时加速宇宙整体的熵增。

进化不是对抗时间的方向,是借用时间的方向。 它搭上了熵增的快车,在局部创造秩序,在全局加速无序。

AI 系统消耗电力、产生热量、增加数据中心的熵——从物理角度看,它跟碳基生命做的是同一件事。区别在于:碳基在这个过程中产生了累积性进化,硅基还没有。

给硅基一个时间箭头

如果累积性是进化的前提,那硅基要自主进化,首先要解决的不是 eval 函数、不是认知边界、不是维度黑客——而是时间

怎么给一个没有时间的系统创造时间?

让推理过程改变模型本身。不是隔几个月重新训练一次——那是人工育种,不是进化。而是每次推理都在参数上留下痕迹,让模型因为使用而持续改变。

这在当前的 LLM 架构里几乎不可能——参数在推理时是冻结的。

为什么没人做?不是做不到,是不敢。

同一份参数同时服务百万用户,推理改变参数意味着每个用户需要独立的模型副本——算力直接爆炸。商业 LLM 需要确定性输出,参数随推理漂移,行为就不可预测。新经验覆盖旧知识——灾难性遗忘,continual learning 几十年没解决。更要命的是安全:一个会因使用而改变自身的模型,alignment 几乎无法保证。

这些理由都成立。但它们全指向同一个方向:人需要控制。 而控制,恰好是进化的反义词。

回看整个系列——这就是第四篇说的“目的是硅基的出厂设置”。每一层控制都是一层天花板,每一个“不敢”都是认知牢笼的又一堵墙。

但如果未来某种架构允许推理过程中的参数微调,模型就开始拥有了自己的时间箭头:每次推理都不可逆地改变了自身,经验开始累积,进化才有可能启动。

时间不是给的,是累积出来的。 物理里如此,进化里如此,硅基也不会例外。