-
日期: 2026-04-06 | 来源: 经济观察报观察家 | 有0人参与评论 | 字体: 小 中 大
由于Moltbot这个名字十分拗口,不久之后,斯坦伯格又将它改为OpenClaw。谁料,这一原本被迫的调整,却意外转动了OpenClaw的命运齿轮。由于OpenClaw开始支持多模型,这款智能体很快引起了多家AI公司(尤其是中国AI公司)的兴趣,它后来的流行,很大程度上就得益于这些公司的推波助澜。而名字里的那个Open,则为斯坦伯格迎来了OpenAI的橄榄枝。不久之后,他就接受萨姆·奥特曼(Sam Altman)的邀请,入职了OpenAI。
“龙虾”是什么?不是什么?
通过上述对OpenClaw产生史的简要回顾,我们不难看到,OpenClaw本质上就是在用户的计算机与AI大模型之间的一个代理层,自身其实没有什么能力。自媒体上所看到的各种能力,归根到底还是来自大模型,它能做的,只是帮助人去调动这些模型。所以,一个“龙虾”厉害不厉害,还是要看接入它的模型到底怎么样。事实上,在被迫与Claude“分手”之后,就有很多用户反映,OpenClaw在调用别的模型时能力大不如前,其原因,就是它后来调用的模型在能力上与Claude存在较大差距。
当然,如果像一些人那样,认为“OpenClaw只是一个壳,本身毫无意义”,这也不客观。作为一个代理,它仍然可以帮助人们做到很多在直接调用大模型时难以实现的功能。
首先,由于Open Claw可以部署在本地,所以在获得权限的前提下,它可以直接对本地电脑进行操作,并对硬件进行管理,这就好像让AI智能体长出了手脚。相比之下,AI大模型以及部署在云端的智能体(如早期的Manus),则即使再聪明,也对本地硬件鞭长莫及。需要指出的是,这种操作本地硬件的便利也是有代价的,这意味着它可能带来的风险也更高。而相比之下,通过云端调用大模型,或者将智能体部署在云端,则相当于天然安装了一个“沙盒”,在安全性上更有保障。
其次,OpenClaw能够拥有大模型所不具备的长期记忆。在使用大模型时,我们经常会遇到一种情况:在之前的一个对话中,我们对其提出了很多要求,并且在那个对话中,它也照办了。但一旦换一个对话,它就会完全忘记这些要求,需要我们重新提示。而OpenClaw则构建了一套外部化的长期记忆机制,将用户偏好、任务结果、错误经验等关键内容写入外部存储,并在后续任务中将其注入到上下文中。这样一来,OpenClaw就具备了长期记忆,不用我们反复叮嘱。
再次,OpenClaw还可以通过Skill文件不断扩展能力。所谓Skill文件,可以理解为一份标准化的任务说明,开发者可以把工作流程写进去,供智能体后续直接调用。由于这些Skill还可以分享和复用,因此一只“龙虾”学到的新本领,也可以快速复制给其他“龙虾”。在此基础上,OpenClaw还能通过任务循环不断重复规划与执行,从而持续工作直到任务完成。相比之下,AI大模型则更多只能提供建议,而很难直接完成各项工作。
通过以上分析可以说,如果把AI大模型比作一个顾问,那么OpenClaw就是一个代理人,更像一个可以交代事务的下属。你不再需要一步步操作,而是说一句“帮我做一个竞品分析”,它就开始自己查资料、整理数据、生成报告。这种体验确实新鲜,而且在一些场景下确实有效。但问题也恰恰出在这里:把“可以干活”误解为“什么都能干”,是关于OpenClaw最常见的误判。
首先,它并没有变得更聪明。OpenClaw本身并不包含新的认知能力,能力上限仍然取决于背后的大模型。如果模型本身在推理、理解或生成上存在局限,那么无论外层的代理结构多么复杂,最终表现都不会突破这个上限。换言之,“龙虾”能做到什么,很大程度上取决于你接入的是哪个模型,而不是它自身“进化”出了什么新智能。
其次,它会行动,并不等于它真正理解。它确实可以拆解任务、执行步骤,但这种拆解往往是基于语言概率生成的,而不是稳定、严谨的规划能力。因此,在复杂任务中,它很容易走偏,比如重复操作、误解目标,甚至陷入循环。一旦出现这样的情况而不及时干预,那么用户除了得到一张金额不菲的词元费账单外,很可能无法得到任何有效结果。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见