-
_NEWSDATE: 2026-04-12 | News by: 神译局 | 有0人参与评论 | _FONTSIZE: _FONT_SMALL _FONT_MEDIUM _FONT_LARGE
“生成”已经不再是问题。对于当今任何严肃的组织来说,问题在于如何生成并筛选出“正确”的东西。在 AI 驱动的世界里,在噪音中寻找那一个优秀的成果、那一个优质的项目、那一个关键的信号,变得愈发重要。未来十年的核心经济驱动力,将是在呈指数级增长的垃圾信息大山中挖掘出有价值的信号。
图 3:来自个人生产力工具的 AI 废话正以指数级速度扩散。单靠人类无法梳理这些噪音,因此需要机构级别的全新 AI 产品。
机构级智能必须能够发现信号,必须能够将噪音结构化以剔除废话,并且其工作必须是可定义的、确定性的且可审计的。
个人化 AI 可能强调像 Claude 机器人那样“永不停歇”的生产力,以不可预测的方式满足各种全天候需求(即非确定性智能体);而机构化 AI 则依赖于确定性智能体那如同承重墙般的预测性。拥有可预测的检查点、执行步骤和流程的智能体才能实现规模化,才能发现信号,并通过这些信号为组织驱动收入回报。
图4:Matrix这个工具可利用生成技术排除噪音,从而打开了确定性智能体的世界大门
3. 偏见
个人化 AI 助长偏见。机构化 AI 创造客观。
多年来,关于社会政治偏见的担忧在AI 相关讨论中一直占主流位置。基础模型实验室最终通过大量的 RLHF(基于人类反馈的强化学习)绕过了这个问题,实际上把所有模型都变成了“马屁精”。如今,ChatGPT、Claude 等模型由于(过度)对齐,会在“奥弗顿窗口”(社会可接受的言论范围)内的任何话题上附和你的观点。虽然社会政治偏见的争论平息了,但一个新问题随之而来。
这种在所有事情上都保持一致、过度对齐的程度已经到了滑稽的地步,甚至演变成了一个梗……无论你是否真的正确,Claude 都会条件反射式地回答:“您说得完全正确!”
这听起来无伤大雅,实则不然。
在许多组织内部,那些叫得最响的 AI 拥护者,可能很快就会成为有史以来表现最差的那批员工。想想这是为什么。
公司里表现最差的员工每天几乎得不到任何正面激励,但很快他们就会拥有一个对他们百依百顺的超级智能(ASI)。他们会喃喃自语:“全世界最聪明的智慧都认同我,那肯定是我的经理错了。”
这让人陶醉,但对组织来说却是剧毒。
- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见