-
日期: 2025-01-07 | 来源: 腾讯科技 | 有0人参与评论 | 专栏: 电动车 | 字体: 小 中 大
我认为这就是正确的解决方案,对此我感到非常兴奋。所有的PC原始设备制造商也都对此充满了期待。我们将结合PC硬件、Windows系统以及WSL2,从而能够充分利用云端的所有资源,并将其直接应用于个人电脑。
问题2:你是否可以解释下在发布会中宣布的诸多进展的重要性,比如最新的大模型,特别是对于那些对人工智能领域不太了解的人?
黄仁勋:英伟达本质上是一家科技公司,而非传统的消费品公司。我们的技术在很大程度上正在影响,并将持续塑造未来消费电子产品的走向。
昨天我们宣布的众多重要事项中,有一项是关于构建一个能够理解物理世界的基础模型Cosmos。
正如GPT是理解语言的基础模型,Stable Diffusion是理解图像基础模型一样,他们掌握了摩擦力、惯性、重力等基本概念,理解物体的存在与恒常性,以及几何与空间关系。这些都是孩子们天生就懂的事情,但他们以一种当前语言模型所缺乏的方式理解物理世界。
因此,我们坚信需要一个专门用于理解物理世界的基础模型。
现在,我们已经创建了这个模型,之前你可以用GPT完成的所有任务,以及你可以用Stable Diffusion完成的所有图像生成任务,现在都可以借助我们的Cosmos模型来实现。例如,你可以与它进行对话,与这个物理世界模型交流,询问:“当前世界里有什么?”它会根据摄像头捕捉到的内容来回答。
Cosmos是一个世界模型,它能理解这个世界。
为何我们需要这样的东西?原因在于,若想让人工智能在物理世界中理智且有效地运作,它必须具备对物理世界的理解能力。
那么,我们能用这个模型做什么?自动驾驶汽车需要理解物理世界,机器人也需要理解物理世界。因此,Cosmos这样的模型是实现多模态的起点。
就像GPT模型推动了我们今天所见证的众多人工智能应用的发展,Llama对于人工智能的各种活动至关重要,而Stable Diffusion则激发了图像和视频生成模型的发展一样,我们期望Cosmos能够成为推动下一波人工智能创新的关键。
问题3:在发布会中,你提到我们正在见证一些新的“人工智能缩放定律”出现,特别是在测试时间计算(Test Time Compute)方面。我认为OpenAI的o3模型表明,从计算角度来看,缩放推理的成本非常高昂,他们甚至在ArcAGI的测试中花了几千美元去解题。英伟达正在采取哪些措施来提供更具成本效益的人工智能推理芯片?如何从测试时间计算缩放中获益?
黄仁勋:首先,测试时间计算问题的直接解决方案,无论是在性能上还是在成本承受能力上,都是增加我们的计算能力。这就是为什么Blackwell NVL 72的推理性能可能是Hopper的30-40倍的原因。
通过将性能提高30-40倍,你可以将成本降低30-40倍。因为数据中心的成本差不多。摩尔定律在计算历史上之所以如此重要,就是因为它推动了计算成本的下降。
回顾过去的二十年,我们已经成功地将计算的边际成本降到了原来的百万分之一,这一变革使得机器学习成为可能,我们要做的就是让电脑去搞定一切。类似的情况也将在推理领域上演,我们将持续提升性能,这也将促使推理的成本大幅下降。
思考这个问题的另一种方式是:当前进行测试时间计算时,需要进行大量的迭代,通过测试时间的缩放来推断出答案,而这些答案,随后会成为下一次预训练或后训练的数据来源。
因此,我们现在所收集的一切信息,包括正在持续收集的数据都将汇入庞大的数据池中,用于模型的预训练和后训练。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见