-
日期: 2026-03-06 | 来源: 新智元 | 有0人参与评论 | 字体: 小 中 大
在印度新德里举行的AI峰会上,OpenAI的CEO奥特曼和Anthropic的CEO Dario Amodei拒绝握手,彼此嫌弃
他点燃了OpenAI的Scaling Law之火
早在2019年,Dario的信念就已成型。
那年GPT-2刚出,业界大多嘲笑“不过是更大的语言模型”。
他却看到了规律:
智能就像一场化学反应。
你把三种原料——数据、计算、模型尺寸——按比例混合,点火,它就爆炸。
在2024年一档播客中,Dario Amodei回忆道:
2014年我在百度研究时,就隐约发现了Scaling Law。虽然当时没有量化,但我们都感觉到,给模型更多数据、算力和训练时间,性能就会不断提升。
2017年,百度发布相关论文时未引发广泛关注,但后来成为推动大模型发展的重要理论基石。
他推动OpenAI接受这条“scaling law”。
起初很多人不信,包括openAI部分高层。
但曲线不会撒谎。GPT-3、后续模型一次次验证:规模就是一切,Scaling is All You Need。
可当曲线越来越陡,Dario开始问第二个问题:智能开始爆炸之后呢?
“这些模型一旦成为通用认知Agent,”他说,“经济、地缘政治、安全的影响将是指数级的。我们必须做对。”
在OpenAI内部,他推动的不是“更快”,而是“更对”。
他看到安全被放在“漂亮的修辞”里,却总在速度与领先的权衡中后退。
他和几位共同创始人越来越不安。
“与其试图改变别人的愿景,不如自己去做。”Dario总结,“然后为自己的错误负责。”
于是他们走了。不是因为恨,而是因为必须拥有自己的方向盘。
安全岂只嘴上说说?
离开后,Dario没有沉默。他把Anthropic设计成公共利益公司,使命写进章程:负责任地推进前沿AI。
更激进的是治理结构:Long-Term Benefit Trust(长期利益信托)。
这是一个独立实体,由财务上完全无利益冲突的受托人(国家安全、公共政策、AI安全专家)组成。他们持有特殊股份,最终可任命董事会多数席位。
“这是在制衡单一人,”Dario说,“也是对权力自然集中趋势的反抗。”
他坦言对“一夜之间、近乎意外”的权力集中“深感不适”。
在OpenAI时,他感觉安全只是“语言修饰”;在Anthropic,他用制度把安全钉死在公司DNA里。
证据清单触目惊心:
2022年,Claude 1已很强,他们选择不发布,只因担心点燃军备竞赛(为此损失消费者市场先机)。
推动加州SB 1047监管法案,且明确豁免年营收
公开与政府意见相左,甚至不惜商业代价。
而OpenAI的方向,在Dario看来,是“嘴上重视,骨子里加速”。
他没有直接点名,但那句“我不信奥特曼能把AI做对”已足够撕开所有包装。
但最吊诡的悖论来自Dario自己!
当最懂AGI的人亲手制造风险
在代码、推理、长上下文上,Anthropic的AI模型Claude系列屡屡领先,
Dario Amodei直言“热浪正在逼近。”
最近,他开始更多地使用Claude,日益迷恋:
有时候,它对我的了解之深,真的会让我有点震惊。不知道你能不能理解那种感觉——它仿佛真的“懂”我。
让他真正感到意外的,是我们距离这些模型达到人类智能水平,已经非常近了——至少在他看来是这样。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见