
周一早盘,华尔街做了它最擅长的事:先卖,再想。
纳斯达克下跌 1.4%,标普 500 下跌 1.2%。IBM 暴跌 13%,Mastercard 和American Express 也显著下挫。把市场推向这阵恐慌的,不是美联储,不是就业报告,也不是哪家科技巨头的财报,而是一篇文章。它的标题听起来就像是故意写给交易员的噩梦:《The 2028 Global Intelligence Crisis》。按文中设定,这不是一份普通研报,而是一份“来自 2028 年 6 月 30 日”的虚拟宏观备忘录,描述 AI 如何从效率工具演变为系统性金融危机;文章模拟的终局包括失业率升至 10.2%,标普 500 较 2026 年高点回撤 38%。这篇文章发布后迅速传播,并在 2 月 23 日引发了美股显著波动。
市场之所以会被一篇文章刺穿,不是因为市场真的相信了它的每一个数字。市场从不需要完全相信一个叙事,市场只需要被提醒:某种原本说不出口的恐惧,已经有了可交易的语言。
Citrini 的文章之所以有效,不在于它“预测”了什么,而在于它命名了什么。它给一种正在形成的感受起了名字:Ghost GDP。文章的核心设定是,AI agent深入企业后,劳动生产率飙升,名义 GDP 依然强劲,但财富越来越集中在算力和资本持有者手中,不再进入现实消费循环;接下来是消费崩盘、信用违约、住房与消费信贷承压,软件与咨询行业先倒,再向私募信贷和传统银行体系蔓延。
Ghost GDP 是一个好词,因为它抓住了一个新时代最危险的悖论:增长还在,但增长开始失去消费者。
过去两个世纪,人们习惯于把技术革命理解成供给端的故事。蒸汽机、电力、流水线、互联网——它们首先被讲述为更高效率、更低成本、更多产出的胜利。即便这些革命造成失业、焦虑和财富重分配,主流叙事依然坚信,技术最终会在更大的规模上重新雇佣、重新分配、重新组织社会。技术的短期残酷,被长期繁荣的承诺包裹住了。
AI 让这个旧故事第一次看起来不那么稳固。
因为 AI 攻击的不只是“工具预算”,还越来越直接地攻击“劳动力预算”。Sequoia 2025 AI Ascent 的总结说得非常直白:AI 的机会不只是重做软件市场,而是在重构全球劳动力服务市场,从“卖工具”变成“卖结果”。这句话的另一面几乎令人不安:如果企业购买的不再是帮助员工工作的软件,而是直接替代一部分员工的结果,那么 AI 的第一性后果就不只是“效率更高”,而是“工资如何分配、消费如何维持、谁还算这个经济系统里有购买力的人”。
换句话说,华尔街真正害怕的,不是 AI 会犯错,而是 AI 会太成功。这才是《The 2028 Global Intelligence Crisis》让人坐直的地方。它不是在讲机器觉醒,不是在讲人类灭亡,甚至也不主要是在讲失业。它在讲一件更资本主义、也更现代的事:如果企业变得更高效,但家庭部门变得更虚弱,会发生什么?
答案是,一个社会可能在统计上增长,在现实里失血。
一个国家可能有更高的生产率,却有更脆弱的消费基础。
一个市场可能因为利润率改善而兴奋,又因为支撑利润的那层需求被抽空而恐慌。
这不是科幻,这是宏观经济学。
但如果把问题停在这里,得到的只会是一种高质量的焦虑。接下来真正重要的问题不是“AI 会不会太强”,而是:当 AI 真的很强时,社会靠什么接住它?最流行、也最偷懒的答案,是“慢一点”。不要让 agent 那么快进入企业,不要让自动化那么快重写组织,不要让技术在制度没有准备好的时候跑得太远。这种冲动可以理解,但它误把 AI 当成一个可以用减速来处理的工具问题。实际上,AI 越来越不像一个工具问题,而更像一个秩序问题。
因为一旦 agent 进入支付、协作、执行、记忆和决策层,真正的挑战就不再是某个模型会不会胡说八道,而是:当网络上存在数亿、数十亿个 agent 时,谁来给它们写规则?
现代互联网对此已经有了两种默认答案。
第一种答案是平台答案。平台给身份,平台给权限,平台给支付接口,平台给信誉系统,平台给审查边界。平台托管一切,也定义一切。它最大的优点,是平滑、高效、可管理;它最大的危险,也恰恰在这里:如果未来 agent 文明建立在这种路径上,人类得到的不会是一个开放社会,而只是平台帝国的升级版。规则不会写在宪法里,只会写在服务条款里。
第二种答案听上去更自由:把一切还给个人终端。每个人自己管理自己的 agent,自己处理权限、记忆、支付、安全和协作。这种想象很符合硅谷式的自由主义美学,但它的问题也很简单:绝大多数人根本没有能力长期治理一个高能力 agent,更不用说治理一群会彼此调用、彼此支付、彼此继承状态的 agent 网络。终端主权在这里很容易退化成终端裸奔。
如果平台答案太像帝国,终端答案太像无政府状态,那么第三条路就不再是可选项,而是文明问题本身。
这正是 LazAI 值得认真对待的地方。不是因为它有多少技术模块,而是因为它提出了一个更少被讨论、却更像未来的主张:把 Web3 这些年在身份、资产、支付、共识、证明和治理上的社会实验,升级成 AI 时代的制度机器。LazAI 把这个目标说得并不含糊。它不是在“制造更聪明的奴隶”,而是在试图培育“平等的数字公民”:这些 agent 拥有身份(EIP-8004)、拥有财产(DAT)、通过协议交易(x402)、行为受数学约束(Verified Computing),并最终通过 iDAO 与人类利益对齐。资料甚至把这条路概括为:为未来数字社会制定宪法和货币政策。
这是一个很大的说法。但大,不等于空。
因为如果把这套想象拆开,它回答的恰恰是一个文明必须回答的五个基本问题。
第一个问题是:谁是谁。
EIP-8004 试图把 agent 从服务器上的匿名进程,变成具有身份、声誉和验证记录的实体。没有这一层,未来网络会被不透明的自动化主体淹没,没人知道谁在行动,谁该负责。LazAI 的知识库把这一层概括为 agent 的身份信用体系。
第二个问题是:谁拥有什么。
DAT 把数据、模型和计算输出从“资源”变成“资产”,并让这些资产可编程、可追踪、可获利。资料直接写到,DAT 的核心创新是把数据集和 AI 模型转化为可验证、可追踪且可获利的链上资产。这不是小修小补。这意味着 AI 经济里的价值,不必永远只记在平台后台,也不必永远只流向模型提供者和算力持有者。
第三个问题是:它们怎么交易。
x402 和 GMPayer 的意义,不只是“能付钱”,而是让机器之间拥有原生的报价和结算语言。LazAI 材料明确把这部分描述成解决 agent 资源交换和支付痛点的关键基础设施。机器之间不仅交换信息,还交换预算、责任和价值——这才是 agent economy,而不是“会聊天的软件”。
第四个问题是:你怎么知道系统真的按规则运行。这里 LazAI 的一句话极好:Proof is AI’s moat. 它的验证计算框架结合 TEE 和 ZKP,把传统 AI 的“相信品牌”转成“相信证明”。传统 AI 是“Trust me, bro”,LazAI 是“Don’t trust, verify”。这不只是技术升级。这是在把信任从企业声誉迁移到可验证执行上。
第五个问题是:规则冲突了怎么办。
这就是 iDAO 的位置。它不只是一个投票壳,而是 agent 背后的价值观、准入标准、收益分配、授权撤销和惩罚机制。LazAI 把它与验证计算并列为信任机制的核心。这意味着,未来的 agent 不是仅仅“被允许运行”,而是要生活在一个可博弈、可追责、可撤销的制度空间中。把这些拼在一起,你会发现,“算法宪法”不是一个花哨的比喻。它是一种非常具体的制度野心:在没有单一主人的情况下,让秩序仍然成立。
当然,真正难的地方恰恰在于,这些制度组件不自动等于社会答案。
确权不等于购买力恢复。
分润不等于宏观稳定。
链上治理不等于现实中的社会契约。
被 AI 冲击最深的人,不一定天然就在新制度里占据有利位置。
这也是为什么,Citrini 和 LazAI 其实不是互相否定,而是在谈同一时代问题的
不同层次。前者提出的是症状:如果 AI 的收益主要流向资本和算力,而不是
更广泛地进入社会收入结构,那么消费、信用和中产安全感都会先出问题。后
者提出的是机制:如果社会不想把 agent 世界完全交给平台,也不想把它放任
为终端无序,就必须发明新的身份、资产、支付、验证和治理结构。
一个在说病。
一个在说器官。两者都必要,但都不是全部。
这恰好能解释为什么 Vitalik 那句被广泛引用的话——AI 是引擎,人类是方向盘——如此重要,又如此不够。重要在于,它提醒人们:更强的系统不自动拥有正当性;目标函数、价值判断、最终约束,不能交给单一 AI 或单一中心。不够在于,它没有替人类回答另一个更难的问题:当系统复杂到单个人类已经握不住方向盘时,方向盘怎么办?
答案不可能是继续微操一切。
答案也不可能是寄希望于某个更聪明、更善良的中心。
唯一像样的答案,只能是把“方向盘”制度化:把一部分约束转化成身份注册、信誉积累、资产确权、预算约束、数学收据、挑战机制、授权撤销和惩罚逻辑。
这正是 Web3 的社会实验在 AI 时代忽然重新变得严肃的原因。过去很多人把它看成投机的技术边角料;但当系统复杂度超过人类直接治理能力时,那些关于“没有中心化信任者时,秩序还能否成立”的实验,就不再是边角料了。它们突然变成了预演。
于是,文章真正的锋刃终于显露出来。
华尔街被一篇 AI 文章吓到,并不是因为它第一次意识到 AI 会替代工作。
华尔街被吓到,是因为它第一次如此直白地被提醒:AI 最危险的地方,也许不是让机器变得像人,而是让一个旧世界的收入循环、消费逻辑和制度想象突然显得过时。
如果 Citrini 是对的,那么 AI 不只是生产力革命,它还是分配革命。
如果 Vitalik 是对的,那么 AI 不只是工程问题,它还是主权问题。如果 LazAI 这条路至少部分是对的,那么 AI 的下一阶段竞争,就不只是模型能力竞争,而是制度设计竞争。
真正的大问题不再是:
模型还会不会更强。
Agent 会不会更自主。
企业会不会进一步裁员。
真正的大问题是:
当网络上存在数十亿个 agent 时,谁来写它们的宪法?
如果答案是平台,我们得到的是数字帝国。
如果答案是终端,我们得到的是高成本的无序。
如果答案是一套可验证、可组合、可博弈、可惩罚的规则机器,我们至少开始接近另一种可能:一个不是由更聪明的主人统治,而是由更好的制度约束的智能社会。
AI 时代最难的问题,从来不是模型。
是秩序。
而华尔街那天真正卖掉的,或许不只是股票。
它卖掉的,是一个曾经不言自明的旧假设:技术越成功,社会就会自然吸收它。
进入 2026 年,AI 行业的消息明显比前几年密集了一个数量级。过去几年,我们焦虑的只是大模型的升级,谁做了更好的模型,谁用了更少的算力,但今年,有了 OpenClaw 这样的产品出现,没有新模型升级也能获得这种现象级的注意力,AI 对普...
编者按:什么样的人,能在二十多岁时创办出一家价值 50 亿美元的公司?在本文中,作者通过梳理 25 位创办出 50 亿美元级公司的创始人经历(例如 Robinhood、Shopify、Airbnb、Coinbase、Notion 等公司的创...
在过去的两个星期里,支付巨头 Stripe 宣布了一项要约收购(Tender Offer),对公司的估值高达 1,590 亿美元。与此同时,金融科技基础设施提供商 Plaid 也完成了一项估值为 80 亿美元的要约收购。几天后,Robinh...
周一早盘,华尔街做了它最擅长的事:先卖,再想。纳斯达克下跌 1.4%,标普 500 下跌 1.2%。IBM 暴跌 13%,Mastercard 和American Express 也显著下挫。把市场推向这阵恐慌的,不是美联储,不是就业报告,...