-
_NEWSDATE: 2025-06-20 | News by: 腾讯科技 | 有0人参与评论 | 专栏: 马斯克 | _FONTSIZE: _FONT_SMALL _FONT_MEDIUM _FONT_LARGE
陈嘉兴:另一个你常常谈到的话题就是让人类成为一个多星球物种。这个目标并不是短期内能完成的,可能需要10年、20年,甚至100年。你怎么看待这一点呢?
马斯克:我希望百年后人类文明能依然存在,尽管那时它必将与今日截然不同。据我预测,未来人形机器人的数量将达到人类的5-10倍。
文明进步可通过卡尔达舍夫指数衡量。作为I型文明,人类应能完全掌控一颗行星的能量,但当前我们仅利用了地球能量的1-2%;II型文明可驾驭一颗恒星的能量(约是地球的十亿至万亿倍);而III型文明则能掌控整个银河系的能量,但我们距此仍遥不可及。
当前,我们正处在“智能大爆炸”的早期阶段。我认为,我们30年内就能向火星输送足够资源,使其实现自给自足。这将极大延长文明(无论是生物文明还是数字文明)的存续时间,这正是我主张人类应成为多星球物种的原因。
费米悖论令我困惑:为什么我们还没有见到外星人?这或许是因为智慧生命在银河系中极为罕见,甚至可能唯我独存。若真是如此,人类意识就如黑暗宇宙中的微弱烛火,我们必须竭力守护这缕微光。
成为多星球物种不仅能显着提升文明存续的几率,更是迈向星际扩张的关键一步。当人类立足多个星球时,必将激发太空技术的突破性发展,最终推动意识向星际传播。
陈嘉兴:也有可能,费米悖论指示着,当某个文明达到某种技术水平后,它就会自我毁灭。那么,如何避免这一命运呢?
马斯克:其中一个“伟大的过滤器”显然是全球性的核战争,我们应该尽力避免发生这种情况。另一个可能的过滤器是创建“有利于人类的AI机器人”,构建那些真正关爱人类、并且对社会有帮助的机器人。在构建 AI 时,极其重要的一点是要严格遵循真理,即使这些真理可能是政治上不正确的。我认为 AI 变得危险的一个直觉因素是,我们强迫 AI 相信一些不真实的东西。
陈嘉兴:如果出现快速发展的AI只被一个人掌控,那可能会带来许多不利后果。但现在,我们有更多的选择,这很棒。对此,你如何看?
马斯克:我确实认为会有多个深层智能,可能至少有五个,甚至十个,其中四个可能会在美国。因此,我不认为会是某个AI拥有失控的可能。
陈嘉兴:这些深层智能将会做什么呢?它们可能进行科学研究,还是相互攻击?
斯克:都有可能发生。但我希望它们能够发现新的物理学原理,毫无疑问,它们将发明新技术。我认为我们离数字超级智能非常接近,可能今年就会实现,如果今年没有,明年肯定会实现。数字超级智能的定义是,它在任何领域的智慧都超越了人类。
陈嘉兴:那么,我们如何引导这种超级智能走向超级富足?
马斯克:我认为最有可能的结果是好的。我基本同意杰夫·辛顿(Jeff Hinton)的看法,认为AI有10%到20%的几率会毁灭人类。但从乐观的角度看,这也意味着有80%到90%的概率会有更好的结果。所以,对AI安全来说,严格遵守真理是最重要的事。当然,AI应该具备对人类和生命的同情心。
06 Neuralink半年内让盲人复明
我们已让瘫痪者通过意念交流,下一步是在半年内让盲人重见光明。Neuralink的终极目标不只是修复,更是大幅增强人类。
陈嘉兴:你认为Neuralink对通用人工智能(AGI)和超人工智能(ASI)来说有多重要?
马斯克:其实,Neuralink并不是解决数字超级智能的必要条件,这个问题会在Neuralink大规模应用之前就得到解决。但Neuralink能有效解决的是输入输出带宽的限制,尤其是我们人类的输出带宽非常低。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见