-
日期: 2025-05-31 | 来源: 腾讯科技 | 有0人参与评论 | 专栏: 深夜八卦 | 字体: 小 中 大
辛顿:是的,早在1985年,我的研究目标就是理解我们是如何习得语言的,尤其是我们如何通过上下文来理解一个新词的含义。
举个例子,如果我告诉你一句话:“她用煎锅狠狠地撞了他。”你虽然从未见过“scrummed”这个词,但你大概可以猜到它的意思。首先,它是一个动词,因为它有“-ed”的过去式形式。其次,根据上下文,你会推测它可能意味着“用煎锅击打”,或者“狠狠撞了一下”,甚至还可能猜测出其中含有情绪,比如“他活该”。
当然,也可以有别的解释,比如她用煎锅给他留下了深刻印象——也许她做的煎蛋饼非常棒。但那种解释可能性更低。重点是,你能在没有明确定义的情况下,根据上下文和语义线索,快速推测这个新词的含义。
我们人类理解语言,并不是靠查字典,而是靠情境、语法、语气、经验的联想——这是一种深层次的“特征识别”过程。而这,也正是现代AI所具备的能力。我们会训练AI读取海量文本,它就像人类一样,在不断地接触上下文中,推断词语的功能和含义。
讽刺的是,如今我们对语言理解的最好解释,不是来自语言学家,而是来自AI系统本身。语言学家尝试了几十年,试图建立一个能解释所有语言现象的统一理论,但结果并不理想。而AI则用一种完全不同的方式,靠着大规模数据和统计学习,实实在在地做到了——它可以回答任何语言问题,甚至自己“学会”语言规律。
最大恐惧:AI变得比人类更强大
问:你谈到了AI可能接管人类的潜力。对于我们这些技术新手来说,解决办法就是拔掉插头,关掉它。那么如果AI失控,我们不能直接关掉它吗?
辛顿:你可以看看特朗普是如何入侵国会的。他没有亲自去,而是通过一些人,劝说他们相信这是为了“拯救美国的民主”,最终让他们做了他想做的事。
AI如果真的变得非常智能,就像一个超越我们理解和控制的存在,它也可能通过类似的方式进行操控。设想一下,如果有一个人手里拿着一个开关,准备在AI表现出危险信号时关掉它,那么这个AI可能会通过其操控能力说服这个人不要按下开关。它会让那个人相信,关掉开关将是个灾难性的决定。所以,AI的操控能力已经非常强了。
问:在监管和安全问题上,像新西兰这样的国家是否应该开发自己的AI系统,以便绕过这些安全隐患?
辛顿:这个问题很复杂。开发AI需要大量的硬件和电力支持。在像新西兰这样人口只有大约500万的国家,可能没有足够的资源与中国和美国在AI领域竞争。
问:你最大的恐惧是什么?
辛顿:从长期来看,我最大的恐惧是,我们正在创造的这些数字生命可能会变得比人类更强大。如果这种情况发生,对人类来说可能是非常糟糕的事。我们有时过于以自我为中心,认为这对人类是不可接受的,但我确实认为,对我们来说,这种超越可能是坏事。因为如果AI变得足够强大,那时我们可能就不再是这个世界上最重要的存在了。
问:你如何看待自己在创造这项技术中所扮演的角色?
辛顿:坦白说,我有些难过。因为我们当初的目标是理解大脑,进而创造出有益的技术,但目前来看,结果并不完全是美好的。
更让人遗憾的是,我们仍然没有完全理解大脑是如何运作的。尽管通过AI我们对大脑有了更多的了解,但我们仍然不清楚大脑如何决定增强或削弱神经连接的强度。如果我们能够弄明白这一点,或许我们能够让大脑变得像AI那样聪明。
更令我担忧的是,虽然AI有很多积极的应用场景,但也存在很多被滥用的可能。而我们的政治体系并没有足够的能力去应对这些问题。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见