-
_NEWSDATE: 2024-02-19 | News by: 国家地理中文网 | 有0人参与评论 | _FONTSIZE: _FONT_SMALL _FONT_MEDIUM _FONT_LARGE
他担心AI会在海量数据中学习到意想不到的行为时,最终威胁到人类——比如欺骗,伪造的图片,和漫天的假消息。
为此伊利亚提出了“超级对齐”的概念——
其含义是确保当未来人类对人工智能系统的评估把握超过了那个可控的临界点后,人类仍然有可以有效地监督人工智能系统的办法。
通俗点说,确保AI永远受到人的控制。
但对马斯克和奥特曼等一众硅谷精英而言,当人们掌握一个颠覆性的产品或者技术,最好的办法是尽快把它拿到众人面前,哪怕这个产品或技术还不完美,真实的反馈比在象牙塔里夯实基础更有价值。
山姆·奥特曼与伊利亚·苏茨克维。|Time
在奥特曼离开后,OpenAI内部迎来了史无前例的混乱局面,科研出身的伊利亚显然无法控制。但也是伊利亚,最后选择在要求董事会让奥特曼复职的请愿书上签了名。
无论如何,伊利亚参与或主导的工作一度改变了计算机视觉领域、机器翻译甚至自然语言处理领域的研究进程,其研究工作被引用超过42.7万次,成为引用量最多的计算机科学家之一。
美国《时代》杂志称其“真真切切,就是那个有能力决定人类未来的人”。一个人工智能是否会统治人类的电车难题,站在这个关键节点上,或许没有人能不犹豫。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见