-
日期: 2024-05-30 | 来源: 经纬创投 | 有0人参与评论 | 专栏: 马斯克 | 字体: 小 中 大
在近日与英国《金融时报》的一次访谈中,他反对依赖不断发展的 LLMs 来追求人类级别的智能,因为这些模型只有在被输入正确的训练数据时才能准确回答问题,因此“本质上是不安全的”。
谷歌DeepMind还花了几年时间寻找构建AGI的替代方法,包括强化学习等方法,其中人工智能代理在类似游戏的虚拟环境中从周围环境中学习。
所以他转而专注于一种根本性的替代方法,正在努力开发一个全新的AI系统,希望这些系统能够为机器提供人类级别的智能,尽管他表示这一愿景可能需要10年才能实现。
LeCun认为,LLM的自回归性质(根据之前的单词预测下一个单词)从根本上限制了它们实现真正智能的能力。他主张联合嵌入预测架构 (JEPA) 作为一种更有前景的AGI方法。LeCun还批评了当前对基于文本的学习的关注,认为需要观察物理世界并与物理世界互动,以建立对规划和推理至关重要的全面世界模型。
他强调感官输入以及与物理世界的互动对于发展真正的智力的重要性。他指出,接受过大量文本数据训练的LLM缺乏像人类和动物那样推理、计划和理解世界的能力。LeCun建议未来的人工智能系统需要:
1、结合感官输入以更深入地了解世界。
2、与基于文本的学习相比,以更高的带宽处理信息(例如,人脑以每秒约 20 兆字节的速度处理视觉信息)。
3、立足现实,拥有经验知识,展现常识推理。
李飞飞近日和斯坦福哲学教授Etchemendy在《时代(Time)》上刊载文章,指出当前技术路线无法制造有感知能力的AI,该文章也得到了LeCun的转发支持。
尽管Llama最初是由LeCun领导的FAIR开发的,但现在已经转交给了专注于技术和产品开发的GenAI部门,FAIR则专注于更长远的目标:开发能够达到人类智能水平的新AI架构和方法。
许多人认为Yann LeCun喜欢发表一些争议言论,但更重要的背景是目前AI未来发展中产生的问题。作为人工智能领域最知名的人士之一,Yann LeCun在某种程度上有义务站出来,为这个充满争议的领域提供一些清晰的见解。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见