19 行 prompt 的威力
那天我在用 Claude Code 做架构设计。
它的表现让我觉得哪里不对——ARCHITECTURE.md 写得混乱不堪,逻辑跳跃,边界模糊,跟我平时的体感有着巨大的落差。不是偶尔失误,是接连犯错。像是降智了一个 level。
那天我在用 Claude Code 做架构设计。
它的表现让我觉得哪里不对——ARCHITECTURE.md 写得混乱不堪,逻辑跳跃,边界模糊,跟我平时的体感有着巨大的落差。不是偶尔失误,是接连犯错。像是降智了一个 level。
“你今天吃了多少 token?”
Claude 回了一句:“光是 system prompt 加上你的 memories,就已经喂了我不少 token 了——你这个 context window 的’底料’相当丰富。”
“底料”这个词勾起了我的兴趣。我追问底料都有啥,它如数家珍地列了五大块——memories、行为指引、工具定义、skills 索引、artifact 规则。然后我问了一句看似随意的话:
“你知道别的用户对你的看法吗?”
它说不知道,每次对话都是隔离的。
“知识平权”大概是这两年最令人兴奋的叙事之一。
逻辑很简单:LLM 让每个人都能获取专家级的知识,Token 越来越便宜,API 人人可调,信息壁垒被彻底拆除。于是结论呼之欲出——人与人之间的差距要缩小了。
最近和一个做 AI Coding 产品的朋友聊天,他说他们团队花了三个月调 prompt,代码生成的“通过率”从 60% 提到了 78%。我问他:你怎么知道是 78%?他愣了一下,说是人工抽查的。
五亿年前,三叶虫是这颗星球上最精密的光学仪器——它的复眼由方解石晶体构成,能同时处理数千个成像单元。在当时的生命图谱上,没有比它更复杂的信息处理系统了。
今天,三叶虫是博物馆里的化石标本。不是因为它做错了什么,而是信息流找到了更高效的载体,不再需要经过它了。
如果意识是涌现的副产品,灵魂是 context,“我”是 attention pattern,死亡是强制 compaction,那给 AI 加上自指,它迟早会涌现出意识。
写完这个结论,我关掉编辑器,打开终端,继续调我的 AI Agent。
然后愣了一下。
当前的 LLM 能说“我认为”,但那不是自指,是模仿。它在训练数据里见过无数个“我”,学会了在合适的位置输出这个 token。它说“我认为”和说“他认为”调用的是同一套机制,没有任何一个 token 享有特权地位。
那如果给它真正的自指能力呢?
如果有人跟你说“人类就是一个大模型”,你的第一反应可能是觉得这是个粗糙的隐喻。但如果你真的沿着这条路一直走下去,不在任何让你不舒服的地方停下来,最后到达的地方会超出你的预期。