-
日期: 2025-05-31 | 来源: 腾讯科技 | 有0人参与评论 | 专栏: 深夜八卦 | 字体: 小 中 大
但问题就在这里。一旦你允许AI设定和优化这些子目标,它就可能意识到:为了更顺利、更有效地实现任务,一个极具“通用性”的子目标就是——获取更多的控制权。控制得越多,它越能避免被打断、越能高效地达成目的。
这并不是说AI天生就“想统治世界”,而是说,“掌控一切”可能只是它完成目标的最优路径之一。而这种动机,可能不知不觉间引发一场彻底的控制权转移。
问:你曾在谷歌工作了十多年,而今年谷歌却移除了长期以来承诺不将AI用于开发能够伤害人类的武器的公司原则清单。你对此有何反应?你认为AI在战争中可能发挥什么作用?
辛顿:不幸的是,这种情况表明,公司的道德原则其实是可以被“买卖”的。我觉得很遗憾,谷歌现在选择参与AI的军事应用。我们已经在加沙看到AI的军事应用了。未来,我们可能会看到自主致命武器的出现,也可能会看到无人机群体执行杀伤任务,甚至是专门针对某类人群的攻击。
问:你认为AI用于军事领域存在巨大风险吗?
辛顿:是的,我是这样认为的。如今,几乎所有主要的军火供应商都在研究AI的军事应用。你可以看看欧洲的AI监管政策,虽然这些政策在某些方面相当合理,但其中有一条明确指出,所有这些规定并不适用于AI在军事上的使用。这意味着,武器制造商并不希望他们的AI技术受到过多限制。因此,AI在军事领域的潜力和风险需要特别关注。
问:这听起来几乎像是一种“奥本海默式”的情境——你曾是这项技术的缔造者之一,如今看到它被广泛应用,甚至可能带来威胁,你的感受是什么?
辛顿:我确实有类似的感受。我认为我们正处在一个历史的关键节点。
从短期来看,AI已经在多个方面产生了负面效应。例如,它正在被用于干预选举、替代就业岗位,以及助长网络犯罪。值得警惕的是,2023年至2024年间,全球网络犯罪激增了1200%,AI的滥用正在加剧这一趋势。
而从长期看,风险也同样严峻。AI不再只是工具,它有可能在未来具备超越人类的能力,甚至接管世界的控制权。我们迫切需要建立起有效的治理机制,并由有远见的领导者推动执行。可惜的是,目前我们在这方面的努力仍然严重滞后。
问:关于AI的潜在威胁,也有不少持怀疑态度的声音。比如2018年图灵奖得主之一、现任Meta首席AI科学家的杨立昆就认为,对AI存在“终极风险”的担忧是荒谬的。他在2023年接受采访时被问到:“AI会接管世界吗?”他的回答是:“不会。这种想法只是人类将自身的本性投射到机器身上。”你怎么看他的观点?
辛顿:人类之所以进化成现在这样,是因为我们需要在现实世界中生存,尤其是为了在与其他部落、或者与我们共同祖先(如黑猩猩)之间的资源竞争中取得优势。我们的本性,其实是出于对生存的追求而形成的。如果未来的AI智能体也必须在一个充满其他智能体的环境中“竞争”,它们可能会演化出与人类类似的“生存本能”。
杨立昆还提到,“好人总会比坏人拥有更多资源,因此AI最终会被用来对抗滥用它的坏人”。但我对这个观点也持怀疑态度。当我问他:“你认为马克·扎克伯格是个好人吗?”他回答“是的”。而我不这么认为——部分原因是他与特朗普的关系较为密切。这种判断标准本身就说明,我们无法简单地划分好人与坏人,也难以指望技术总能被“好人”正确使用。
问:如今,科技巨头和政治人物之间的关系越来越紧密,尤其是与特朗普的联盟愈发显眼。在这场AI热潮中,政治家的角色变得尤为关键。你怎么看这个趋势?
辛顿:说到底,他们更关心的是短期的利润。虽然有些科技领袖口口声声说他们在意人类的未来,但真到了要在眼前的商业利益和长远的社会责任之间做出选择时,多数人还是倾向于选择前者。至于特朗普,他根本无意关心人类的未来或AI的长远影响。他现在唯一在意的,大概就是怎么设法避免坐牢。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见