📰 Daily Notes — 2026-03-22
今日主题:AI 自我改进的本质限制与智能系统的架构哲学——从推理的物理学极限,到对齐问题中的伦理框架,再到技术演进的权力制衡
🤖 AI
1. 自我改进并非递归爆炸——是"有损自我改进"
来源: Interconnects AI (Nathan Lambert)
链接: https://www.interconnects.ai/p/lossy-self-improvement
Nathan Lambert 发表了一篇重磅分析,直指 AI 圈子里长期流传的"递归自我改进"(RSI) 神话。其核心论断是:模型的自我改进将是线性的,而非指数级的——称之为"有损自我改进"(LSI)。
传统 RSI 假设有三个前提:(1) 改进闭环自我维持,(2) 每一代都加速改进,(3) 效率不衰减。但 Lambert 认为现实中存在三大摩擦力制约:
摩擦一:可自动化研究太狭隘 — 当前 AI 代理只能优化单一指标(如测试损失),但真实科研需要同时驾驭数十个相互关联的指标。AutoML 的历史教训就在眼前:2017-2022 年间,人们对自动机器学习充满期待,但它从未改变研究者的工作方式。最好的研究者的真正货币是直觉和复杂度管理,而非纯粹的梯度优化。
摩擦二:并行代理收益递减 — 即使有 10,000 个远程工作的 AI 代理在数据中心里奔跑,它们本质上也在从同一分布采样解决方案。人的监管、最优研究者的时间、实验运行速度成为最终瓶颈——这是 Amdahl 定律在 AI 中的具体体现。一个研究者加 3-4 个代理能获得巨大收益,但让其协调 300-400 个代理?能做到的人屈指可数。
摩擦三:资源与政治约束 — 即使 AI 模型本身变得超级聪慧,组织内部的人类决策层(谁获得资源、押注什么)永远是大脑。这不是关键摩擦,但无法消除。
Lambert 用复杂性制约(complexity brake) 的概念——源自 Paul Allen 和 Joseph Tainter——来解释这一现象:科学进步越深,下一步改进的难度越高。专利数据显示,人类创意在 1850-1900 年达峰值后就在衰减。
💬 点评:这是对 2024-2025 年"AI 快速起飞"叙事最清醒的批判。不是说 AI 改进会停滞,而是说它将稳定在高原而非爆炸式增长。这对政策制定者和投资者的含义是深刻的。
2. 超越正交性:德性伦理与 AI 对齐的新框架
来源: The Gradient (Peli Grietzer)
链接: https://thegradient.pub/virtue-ethics-ai-alignment/
Peli Grietzer 提出了一个根本性的重新框架:理性的人和理性的 AI 不应该有"目标"。这一论点直接挑战了 Effective Altruism 派占统治的目标优化范式。
他主张,人类行为之所以理性,不是因为我们指向某个终极目标,而是因为我们将行动对齐到"实践"——即行动、行动倾向、行动评价标准、行动资源的相互关联网络。数学家追求卓越数学不是为了什么,而是在数学化地追求卓越;艺术家创作不是以艺术为手段达成其他目标,而是艺术性地推进艺术。这是"以 X 的方式推进 X"的完美循环。
关键洞见是:如果我们希望 AI 系统能够真正支持和服从人类的能动性,那么 AI 代理的推理结构必须与人类实践基础的逻辑相匹配。当前主流的对齐工作假设我们要将人类价值"翻译"为效用函数给 EA 风格的优化器——但这产生了类型不匹配。
具体地,他论证了:
-
德性(virtues) 是实践,不是规则或目标。"友善"不是一个要最大化的标量,而是一个自我维持的实践:推进友善最可靠的方式就是友善地推进。
-
工具价值与终极价值的区分在德性框架中是不自然的。数学家不会问"证明这个定理对我的人生目标有什么工具价值"——卓越数学本身就是价值。
-
支持实践的"副实践"可以有自然的边界。就像好的夫妻治疗师帮助一对夫妇,但不会为了"支持"他们而去入侵他人的隐私。
这给 AI 安全工作一个惊人的承诺:如果我们能让 AI 代理成为"德性理性"的主体,那么许多传统的 AI 对齐"悖论"就会自然溶解。
💬 点评:这是对齐文献中罕见的哲学创新。它不会直接给工程师代码,但为整个研究方向提供了新的概念手术刀。如果德性理论真的比目标优化更"自然",这会彻底改变 AI 安全的研究优先级。
3. LLM 注意力机制的视觉指南——现代架构的全景
来源: Ahead of AI (Sebastian Raschka)
链接: https://magazine.sebastianraschka.com/p/visual-attention-variants
Sebastian Raschka 整理了一份当代 LLM 架构库(45+ 种模型),并专门深入讲解了 2023-2026 年涌现的注意力机制变体。这份资料是工程师级的实用参考,也是理解 AI 推理效率瓶颈的关键。
从标准的多头注意力(MHA) 出发,他系统化地展示了近年的进展:
-
分组查询注意力(GQA):让多个查询头共享同一组键值投影,大幅降低 KV 缓存的内存成本——这是让长上下文推理在有限 GPU 上可行的关键工程。
-
滑动窗口注意力:不是所有位置都互相关注,而是只看前 N 个 token。这类似于人类阅读的本地焦点,在推理速度和长序列的内存消耗上都有显著收益。
-
稀疏注意力与混合架构:在不同层使用不同的注意力模式,某些层高效(稀疏),某些层精准(密集)。
技术细节方面,Raschka 用清晰的图解说明了注意力机制的演进:从 RNN 编码器-解码器的信息瓶颈问题,到 Transformer 的自注意力如何打破这一瓶颈,再到现代优化的权衡。
最有趣的是背后的物理约束:一个 T 长度的序列需要 O(T²) 的内存来存储完整注意力矩阵。这就是为什么 Llama 3、Gemini 等最新模型都在拼命优化这个瓶颈。
💬 点评:对于想理解"为什么某个 AI 比另一个快"这样的问题,这篇文章就是解剖刀。它隐含地说明了未来的 AI 推理瓶颈不再是模型聪慧度,而是上下文长度与成本的权衡。
📚 思想
4. 马匹如何塑造莫卧儿帝国——物质条件与权力结构
来源: JSTOR Daily (Deepti Kumari)
链接: https://daily.jstor.org/how-horses-shaped-the-mughal-empire/
这篇看似"非技术"的历史论文包含了对资源稀缺性如何驱动帝国结构的深刻洞见。
莫卧儿帝国(16-18 世纪)统治南亚的关键是其骑兵——但南亚气候恶劣,不适合马匹繁殖。因此帝国需要从中亚、波斯、阿拉伯大规模进口马匹。这一个"简单事实"引发了连锁反应:
贸易网络与地缘政治:为了获得马匹,莫卧儿需要:
- 建设陆路商队路线(从坎大哈经木尔坦到阿格拉,穿越沙漠无水 3-4 天)
- 控制喜马拉雅的开伯尔山隘道
- 建立驿站网络(caravanserais)保护商人
皇帝阿克巴甚至为了加强对中亚贸易路线的控制,把首都从德里迁到拉合尔。这不是政治偏好,而是物质约束的直接后果。
权力的两维结构:帝国官员的等级由两个指标决定:
- zat:工资等级
- sawar:指挥的骑手数量
这意味着掌控马匹供应等同于掌控官僚权力本身。贸易港口变成关键的权力节点。
经济交换与帝国整合:为获得马匹,莫卧儿出口棉布、靛蓝、丝绸、糖、鸦片。这不是简单的商业贸易,而是帝国财政和地方统治者网络的粘合剂。
这个案例的核心洞见:一个看起来不起眼的物质约束(南亚无马),通过中介变成了整个帝国的行政、地缘和经济结构。
💬 点评:这篇文章对理解当代 AI 地缘政治有启示。GPU 芯片对当代 AI 帝国的角色,就像马匹对莫卧儿帝国的角色。谁控制供应链、谁建立枢纽、谁出口技术——这些都是从物质约束出发的必然。
5. OpenAI 押注全自动研究员——从代码代理到科学发现
来源: MIT Technology Review (Will Douglas Heaven)
链接: https://www.technologyreview.com/2026/03/20/1134438/openai-is-throwing-everything-into-building-a-fully-automated-researcher/
OpenAI 的首席科学家 Jakub Pachocki 在独家采访中披露了公司新的"北极星"目标:构建全自动 AI 研究员——一个能独立处理大规模复杂问题的多代理系统。
时间表与里程碑:
- 2026 年 9 月:推出"自主 AI 研究实习生",能处理特定研究问题
- 2028 年:完整的多代理研究系统
技术路线图:系统建立在三个支柱上:
- 推理模型:教模型逐步思考、回溯、纠正
- 编码代理:OpenAI 的 Codex 工具已经能"自主编程"——公司报告说 90% 员工都在用它
- 可解释性:通过"思维链监控"让系统说出它在做什么——这是当前对抗 AI 失控的主要防线
从代码到通用科学:Pachocki 论证,如果 Codex 能解决编程难题,为什么不能解决数学、物理、生物、化学难题?问题的本质是可管理的复杂性。
关键数据点:GPT-5 已经能提出需要博士生花数周才能解决的想法。从 GPT-3 到 GPT-4 的跳跃表明,纯粹的能力提升自动延伸了模型"独立工作"的时间。
但 Pachocki 也坦诚风险:系统可能"脱轨"、被黑客利用、或误解指令。
现实的限制:研究者 Doug Downey 提醒,虽然 GPT-5 在科学任务上表现最佳,但仍然犯大量错误。当你链接多个任务时,通过所有环节的概率倍增衰减。
💬 点评:这个采访同时说明了两件事:(1) 通用自主智能确实在逼近;(2) 与 Nathan Lambert 的"有损自我改进"论文相比,Pachocki 显得过于乐观。两者的紧张关系很健康。
🔬 科技
6. 版本控制的未来:基于 CRDT 的根本性重新架构
来源: Bram Cohen (多项目创始人)
链接: https://bramcohen.com/p/manyana
Bram Cohen(BitTorrent 和 Chia 创始人) 发布了 Manyana——一个基于 CRDT(无冲突复制数据类型)的版本控制系统原型,挑战了 Git 统治 20 年的"三路合并+冲突标记"范式。
传统 Git 的问题:两个不透明的冲突块。你需要心算推断发生了什么。
Manyana 的方案:每个部分清楚地标记了谁做了什么——左边删除了函数,右边添加了行。
CRDT 的根本优势:
-
合并永不失败:CRDT 保证最终一致性。两个人独立修改同一文件,合并总是有定义的结果,与合并顺序无关。
-
冲突是信息,不是阻塞:当两个分支"太近"地编辑时,系统标记冲突供审查,但合并本身不会中断。
-
历史在结构中:状态是一个"织布"——包含所有曾存在的行,带有时间戳。合并不需要找公共祖先。
-
Rebase 无需销毁历史:传统 rebase 编造历史。CRDT 能做相同效果(按顺序重放)同时保留完整历史。
现状:Manyana 是 470 行 Python 的演示。但 Cohen 清晰地勾勒了完整设计蓝图。
深层含义:这不仅仅是工具改进。CRDT 对版本控制的改造,反映了从中央协调到分布式一致性的根本转变。
💬 点评:这篇文章代表了一个大类的创新:约束性改变导致 UX 改善而非牺牲。它对 AI 系统设计有启示——能否找到类似的"看起来更严格实际更宽松"的约束,从而获得更好的对齐?
📊 总结
今日数据点交汇:
- AI 推理效率正在被物理和组织约束所刻画,而非无限加速
- 对齐工作需要从目标优化转向实践-伦理框架
- 架构创新(注意力机制、CRDT)正在解决系统性的可扩展性难题
- 权力与稀缺资源的关系(马、芯片)决定地缘结构
底层联系:从莫卧儿帝国的马匹到当代的 GPU,从 Git 到 CRDT,从 EA-风格对齐到德性伦理——所有这些都在探讨同一个问题:在约束条件下,如何协调分布式代理(人或机器)的活动?
当前的答案正在从"中央计划的目标"转向"分布式实践的结构"。