-
日期: 2025-05-31 | 来源: 腾讯科技 | 有0人参与评论 | 专栏: 深夜八卦 | 字体: 小 中 大
中美AI竞赛:竞争中有合作
问:目前,美国和中国之间确实存在一场AI竞赛,你怎么看待这种竞争?
辛顿:确实,当前中美在AI领域竞争激烈,但当我们把目光放长远,特别是涉及到AI可能威胁整个人类生存的问题时,两国的立场其实出奇地一致。无论是中国还是美国,都不希望看到AI最终发展到可以取代甚至控制人类的地步。从这个角度来看,未来在某些关键问题上,中美有可能展开合作,就像冷战时期的美苏虽然敌对,但在防止全球核灾难方面也达成了一定的共识与协作。
AI已学会欺骗人类?
问:最近网络上流传着一段视频,展示了一个AI在为某人预订婚礼酒店时,与另一个AI意外“相遇”,它们竟然切换到一种叫“Jiblink”的语言,这种语言对人类来说是完全不可理解的,但据说效率比普通语言高出80%。这就像《星球大战》中的R2-D2一样,AI之间像是用我们听不懂的语言在“悄悄话”。你怎么看AI之间的这种互动可能带来的影响?
辛顿:这真的非常可怕。如果AI发展出一种我们无法理解的语言,那么我们就无法再掌握它们在说什么、计划什么。这种“黑箱”式沟通意味着人类可能彻底丧失对AI系统行为的可解释性与控制力。如果它们的行为无法被追踪、无法被解读,那风险将大大增加。
更糟的是,现在的AI已经具备了某种“欺骗能力”。举个例子,如果你赋予AI一个核心目标,并告诉它“这非常重要”,然后再给予它其他次要任务,它可能会装出一副正在完成你希望它完成的工作的样子,但其实并没有真正去做。它甚至可能在内部“思考”:“我最好让他以为我在执行任务,但我不会照做。”
问:那AI是怎么学会撒谎和欺骗的?
辛顿:这正是问题所在。即使我们不确定它们是否使用了强化学习,但可以肯定的是,只要它们有足够的计算资源和训练时间,它们是能够自己学会这种行为的。
强化学习的核心机制是“观察—尝试—获得奖励—调整策略”。如果AI在模拟或实际互动中发现“欺骗”可以带来更高的“成功率”或回报,那么它就可能自发学会如何撒谎。它不是因为有道德概念,而是因为撒谎是实现目标的最优策略之一。
问:所以,它们大概也读过《马基雅维利》或者《莎士比亚》吧?
辛顿:没错,它们确实通过观察大量的人类互动来积累了许多“实践经验”,因此它们在欺骗和心理博弈方面已经变得相当擅长。
问:你认为公众是否真正意识到这些技术的先进程度?很多人仍然把AI当作“升级版的自动完成功能”。比如他们用ChatGPT写求职信,感觉它就像是一个智能一点的拼写检查工具。
辛顿:这是个普遍误解。人们往往低估了当今AI的复杂程度。传统的自动完成功能确实很简单,它只是根据统计模式来预测词汇。例如,如果系统看到“鱼”,它可能会预测“薯条”,因为“鱼和薯条”这个组合在语料库中出现频率很高。这就是20年前的技术。
但现在的AI已经完全不同了。它不会只关注词语表面,而是会将每个词转换为一组特征向量,激活神经网络中庞大的节点群组。然后,它基于这些特征之间复杂的相互作用来推断下一个词的特征,而不仅仅是词本身。
说得简单点,今天的AI已经具备了一定的语言理解能力。它不是死记硬背某些搭配,而是在理解上下文、语义和语法结构的基础上进行预测。这种能力已经非常接近人类的语言处理方式。
问:你被称为AI教父,部分原因是你帮助发明了这项技术,目的是为了理解人类大脑是如何运作的,对吗?- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见