-
日期: 2026-03-07 | 来源: 黄汉诚说 | 有0人参与评论 | 专栏: 谷歌 | 字体: 小 中 大
战争,从比谁的拳头硬,变成了比谁的网速快、谁的系统更丝滑。
但让人感到后背发凉的,不是AI到底多厉害,而是这套系统的决策逻辑,伦敦国王学院曾经在实验里——让GPT、Claude和Gemini扮演拍板者进行兵棋推演,结果惊掉所有人下巴:95%的对局,AI在结尾都选择了按下核按钮。
为什么AI这么冷血?因为在AI的底层逻辑里,这世界根本没有人!
它没有对死亡的敬畏,对人类来说,核弹意味着文明毁灭,但在AI看来,如果一颗核弹能降低战争成本、提高胜率,那它就是一个性价比高的优选方案,这种没有道德、不计后果的理性,就是AI教父辛顿担心的问题:AI正在脱离人类的掌控,它不是变坏了,而是太想完成任务了。
这种极致理性,到底会将人类带往何方呢?
是获得“永生”,还是失控走向毁灭呢?
说到底,AI就是一把刀,决定这把刀挥向哪里的,是人类的良知,当普罗米修斯的火种再次降临,我们必须坚守底线。
26年开年,黑天鹅频发。金、银、战争金属波动加剧,三大资金搬家:企业结汇、定存搬家、财政放水......它们会流到楼市还是股市?- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见