-
日期: 2026-04-12 | 來源: 神譯局 | 有0人參與評論 | 字體: 小 中 大
“生成”已經不再是問題。對於當今任何嚴肅的組織來說,問題在於如何生成並篩選出“正確”的東西。在 AI 驅動的世界裡,在噪音中尋找那壹個優秀的成果、那壹個優質的項目、那壹個關鍵的信號,變得愈發重要。未來拾年的核心經濟驅動力,將是在呈指數級增長的垃圾信息大山中挖掘出有價值的信號。
圖 3:來自個人生產力工具的 AI 廢話正以指數級速度擴散。單靠人類無法梳理這些噪音,因此需要機構級別的全新 AI 產品。
機構級智能必須能夠發現信號,必須能夠將噪音結構化以剔除廢話,並且其工作必須是可定義的、確定性的且可審計的。
個人化 AI 可能強調像 Claude 機器人那樣“永不停歇”的生產力,以不可預測的方式滿足各種全天候需求(即非確定性智能體);而機構化 AI 則依賴於確定性智能體那如同承重牆般的預測性。擁有可預測的檢查點、執行步驟和流程的智能體才能實現規模化,才能發現信號,並通過這些信號為組織驅動收入回報。
圖4:Matrix這個工具可利用生成技術排除噪音,從而打開了確定性智能體的世界大門
3. 偏見
個人化 AI 助長偏見。機構化 AI 創造客觀。
多年來,關於社會政治偏見的擔憂在AI 相關討論中壹直占主流位置。基礎模型實驗室最終通過大量的 RLHF(基於人類反饋的強化學習)繞過了這個問題,實際上把所有模型都變成了“馬屁精”。如今,ChatGPT、Claude 等模型由於(過度)對齊,會在“奧弗頓窗口”(社會可接受的言論范圍)內的任何話題上附和你的觀點。雖然社會政治偏見的爭論平息了,但壹個新問題隨之而來。
這種在所有事情上都保持壹致、過度對齊的程度已經到了滑稽的地步,甚至演變成了壹個梗……無論你是否真的正確,Claude 都會條件反射式地回答:“您說得完全正確!”
這聽起來無傷大雅,實則不然。
在許多組織內部,那些叫得最響的 AI 擁護者,可能很快就會成為有史以來表現最差的那批員工。想想這是為什麼。
公司裡表現最差的員工每天幾乎得不到任何正面激勵,但很快他們就會擁有壹個對他們百依百順的超級智能(ASI)。他們會喃喃自語:“全世界最聰明的智慧都認同我,那肯定是我的經理錯了。”
這讓人陶醉,但對組織來說卻是劇毒。
- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見