🧀芝士内参
每日精读 · 用中文阅读世界← 返回首页
← 返回关于往期...

阅读库

《AI 监管的关键不是"定规则",而是提前投资可选性》

政府应对 AI 风险的关键不是急于制定规则,而是提前投资"激进可选性"——先建好信息收集与评估基础设施,让未来拥有更多可行的政策选择。

🧠 agentic reading|1️⃣ 精准输入

导语

Import AI 第 456 期覆盖四个主题:AI 监管的「激进可选性」策略、Schmidhuber 团队提出的「神经计算机」概念、递归自我改进(RSI)如何引爆经济增长,以及 Google 的分布式训练新框架 Decoupled DiLoCo。每个方向都在用不同路径回答同一个问题——当 AI 能力快速跃迁时,制度、硬件和经济结构该怎么跟上。

1. 激进可选性:AI 监管的第三条路

法律与 AI 研究所的研究者提出了一种不同于「管」或「不管」的策略:激进可选性(radical optionality)。核心思路是——政府现在就投资建设未来可能需要的治理工具,而不是急着制定可能很快过时的规则。在巨大的不确定性下,花大钱保留行动能力是值得的。

具体建议涵盖七个方向:1)透明度与报告要求,让企业公开 AI 系统信息,并建立第三方审计;2)吹哨人保护,确保前沿实验室员工能安全举报风险;3)政府间信息共享,特别是围绕敏感的 AI 进展和关键供应链;4)灵活规则与弹性定义,采用「if-then」条件式监管承诺,避免过早锁死;5)能力评估与安全评估,发展政府和第三方的 AI 评测能力;6)模型权重与算法秘密的安全保护,通过自愿标准提升物理和网络安全;7)人才招聘,加大对 AISI(英国)和 CAISI(美国)等机构的资金投入。

作者也回应了几个反对意见:这些工具是否会鼓励政府过度干预?答案是它们本身不是「重型权力」,滥用空间有限。是否牺牲民主合法性?确实可能需要在灵活性和公众参与之间取舍。是否导致权力集中?作者承认风险存在,因此特意不建议大幅扩展《国防生产法》等紧急权力。「实施这些政策的成本相对于潜在收益是微不足道的;而不作为的代价可能是灾难性的。」

2. 神经计算机:当一个大模型取代整个操作系统

Meta 和 KAIST 的论文提出了「神经计算机」(Neural Computer)概念——用一个统一的神经网络取代传统计算机的计算、内存和 I/O 模块,让整个运行时状态活在模型权重里。论文由 AI 领域传奇人物 Jürgen Schmidhuber 参与,思路大胆到近乎荒诞,但逻辑自洽。

团队用视频生成模型 Wan 2.1 做了两个原型实验:一个是命令行界面(CLI),模型学会了渲染和执行基本终端工作流,能处理快速回滚、提示符换行等「物理」行为,但符号稳定性仍有限;另一个是图形界面(GUI),通过光标监督和动作注入评估全局保真度和响应性。目前处于「莱特兄弟起飞前」的阶段——勉强能跑,但指向了一个庞大的未来。

终极目标是「完全神经计算机」(CNC):一台完全由学习驱动的通用计算机,计算、内存和接口统一在单一的学习运行时基底中,不再需要工程化的操作系统和软件栈。如果这条路走通,它将深刻改变软件的存在形式——甚至大幅提高「我们自身生活在模拟中」的可能性。

3. RSI 与爆炸式经济增长

来自 Forethought、哥伦比亚大学和弗吉尼亚大学的经济学家建模分析了 AI 递归自我改进(RSI)对经济的影响。模型识别出两个相互增强的反馈通道:技术反馈回路——AI 自动化加速创新网络中的研发;经济反馈回路——更高产出释放更多资源,进一步推动增长。两者叠加可能将经济推入「爆炸式增长」轨道。

几个关键发现:所有行业仅需 13% 的自动化就足以触发爆炸增长,如果只自动化软硬件研发则需 17%。硬件研发是最大杠杆——硬件研发的回报率大约是软件的 5 倍、全要素生产率的 10 倍,仅自动化 20% 的硬件研发就能跨过临界点。在基线模拟中,全面自动化软件研发加上 5% 的全经济自动化,大约 6 年后就会触发「奇点」。

论文的政策建议是:监测 AI 研发中的自动化水平,可能与追踪传统宏观经济指标一样重要——它可以作为增长加速的早期预警系统。

4. Decoupled DiLoCo:把全世界的算力变成一台计算机

Google 的新论文 Decoupled DiLoCo 将分布式训练推进了一步。核心创新是让不同「学习单元」(learner units)可以异步训练,某个计算岛的芯片故障不会中断其他部分的进度。Google 成功用 2-5 Gbps 的广域网带宽,在美国四个不同区域训练了一个 120 亿参数模型——这个带宽水平用现有数据中心间的互联网连接就能实现,不需要专用网络基础设施。

性能表现优异:在文本和视觉基准上匹配数据并行训练,在激进的模拟故障下保持 88% 的有效吞吐率(弹性数据并行仅 58%)。这项技术的意义在于两个极端:低端——让松散的算力联盟也能合力训练大模型;高端——让 Google 这样的超级算力玩家有朝一日能把全球所有数据中心连成一台世界级计算机,执行最大规模的训练任务。

结论

四个故事指向同一个趋势:AI 系统的能力跃迁正在倒逼制度、硬件和经济模型的同步升级。监管需要从「定规则」转向「建能力」,计算架构从模块化走向神经化,经济增长模型从线性走向指数反馈,分布式训练从容错走向全球协同。每一条线都在加速,交汇点可能比多数人预期的更近。

思想框架

Jack Clark 以周刊形式串联四篇不同领域的前沿进展,但底层逻辑统一:面对 AI 能力的指数级变化,现有系统(政策/硬件/经济/算力调度)该如何重构。从制度设计的「可选性」出发,到硬件层的「神经化」,再到宏观经济的「反馈回路」,最后落在工程层的「全球分布式训练」,逐层展开 AI 对世界基础设施的改造路径。

Import AI 456: RSI and economic growth; radical optionality for AI regulation; and a neural computer · Jack Clark · Import AI · ⏱️ 原文 13 分钟

✍️ think & write|2️⃣ 主动输出

用自己的话解释「激进可选性」与传统的「先立法再执行」监管模式有什么本质区别,并举一个具体场景说明它的优势。
论文指出硬件研发自动化是触发经济爆炸增长的最大杠杆——试解释为什么硬件的回报率远高于软件,这背后的逻辑链条是什么?

我的笔记

✍️ 写下你的想法,自由记录即可。如果没有灵感,试着回答上方的费曼输出问题。

登录后可记笔记

登录后可保存笔记、高亮、划线和批注。

© 2026 芝士内参 · Curated by 读书芝士

追寻知识源头,推动认知迭代