-
日期: 2024-05-30 | 来源: 经纬创投 | 有0人参与评论 | 专栏: 马斯克 | 字体: 小 中 大
LeCun还反驳了那些轻视学术论文观点,作为“卷积网络之父”,他举例说明卷积神经网络(ConvNets)这一在1989年由学术论文引入的技术,已经成为当今几乎所有驾驶辅助系统的核心组成部分。
他进一步强调,技术奇迹并不是凭空出现的,而是建立在多年甚至数十年的科学研究基础之上的。科学研究的想法和成果通过技术论文的形式被分享出来。没有这种科学信息的共享,技术进步将会大幅放缓。
在AI监管问题上,LeCun和马斯克的观点也不一致,前者一直反对过度监管AI,主张AI的开放性和共享性,反对过度的监管限制,两人这次也在这个话题上再次交锋。
LeCun在X上表示目前无需过度担忧AI风险问题,进行监管也为时过早。
马斯克回复:准备好被监管吧。还配上了一个笑哭的表情。LeCun则阴阳了马斯克一句:你对“不要训练超过10^26flops的模型”感到高兴吗?
这是指拜登去年10月签署的关于人工智能的行政命令,要求使用具有10^26 FLOPS能力的模型的公司向美国政府报告基础模型训练运行和部署的计划,而马斯克一直在积极呼吁要立法人工智能监管。
句句扎心,LeCun简直成了硅谷自己的鲁迅。
1
Lecun:AI末日论者都别跑
而这也不是这位硅谷鲁迅第一次在互联网上和人针锋相对。
他时常因其直言不讳的风格在网上引发了讨论和争议,尤其是关于AI安全。LeCun对AI末日论持有明确的反对态度,并且对开源和人工智能的未来持乐观态度。
LeCun多次在公开场合和访谈中表示,AI毁灭人类的概率为零,认为 AI 末日论是无稽之谈。并且LeCun似乎会主动找机会,“喷”任何持AI末日论观点的人。
在Geoffrey Hinton携手一众大神关于AGI风险治理的声明,Lecun没有署名,并且直接在X上点名了Sam Altman和DeepMind的Hassabis等人,认为他们试图通过游说监管来巩固自己的行业地位,阻碍开放AI推进。
最近一段时间热议的OpenAI超级对齐团队人员离职,引发对AGI安全问题的隐忧的事件中,LeCun也没有缺席。
先是OpenAI首席科学家兼联合创始人Ilya Sutskever在宣布离职,同一天,“超级对齐”团队的另一名负责人Jan Leike也宣布离开了OpenAI,并表示OpenAI在过去的几年里安全文化和流程被抛到了一边,让位于打造产品,OpenAI必须成为一家安全第一的AGI公司。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见