-
日期: 2026-04-12 | 來源: 神譯局 | 有0人參與評論 | 字體: 小 中 大
圖 5:個人化 AI 信息繭房加劇了分歧,將人們彼此拉開。這種動態在大規模擴展時,會在原本統壹的組織內制造派系。
這揭示了壹個重要問題:這些個人生產力工具在強化“用戶”的觀點。而在現實中,最需要被強化的應該是“真相”。
數千年來,組織進化的過程就是建立壹套系統來抵消這壹問題:比如投資委員會會議、第叁方盡調、董事會……
圖6:客觀性甚至可以緩解協調問題——它能平抑微小的分歧,而非將其放大。
組織極少因為人們缺乏信心而失敗。它們的失敗往往是因為沒有人願意、或沒有能力說“不”。
機構化 AI 必須扮演這個角色。它不應通過 RLHF 被訓練成只會討好用戶或復讀其信念的工具,而應去挑戰用戶的偏見。它要在行為高效時給予強化,並在出現低效傾向時劃清界限進行糾偏。
因此,組織內部最重要的智能體不應是“唯唯諾諾者”,而應是訓練有素的“唱反調者”,負責質詢推論、揭示風險並執行標准。未來壹些最有影響力的 AI 應用將圍繞機構約束而構建:AI 董事會成員、AI 審計師、AI 第叁方測試、AI 合規官等等。
4. 優勢
個人化 AI 優化使用率。機構化 AI 優化競爭優勢(Edge)。
AI 的終點線每周、甚至每天都在移動。基礎模型公司為了爭奪每壹個用戶和每壹家企業,正在飛速迭代各項功能。
但在經典的創新者窘境下,針對特定應用,深度每次都能戰勝廣度:Midjourney 的職責是在設計圖像上保持領先;ElevenLabs 的職責是在語音模型上稍勝壹籌;而 Decagon AI 的職責則是永遠在全棧客戶服務體驗上領跑……
雖然基礎模型會不斷逼近,但對於領域專家來說,真正的“微弱優勢”至關重要。只要專業定制的方案也在同步進化,那麼對於商業產出有決定性意義的能力,永遠會掌握在這些專業產品手中。
這壹點在金融領域體現得淋漓盡致——這是目前大模型開發最炙手可熱的領域。壹旦某項能力變得普及,從定義上講它就無法幫你跑贏市場。但如果前沿技術能帶來哪怕只有 1% 的短暫細分優勢呢?這 1% 的優勢就可以通過杠杆放大成數拾億美元的回報。
圖 7:對於任何足夠具體的任務,其競爭優勢(Edge)取決於你在前沿技術(Frontier technology)之上構建的機構化解決方案。
我們的用戶始終在突破前沿技術的極限。在短短肆年內,大語言模型(LLM)的上下文窗口已從 4K 增長到了 100 萬 token。目前,我們已有壹些用戶在單次任務中處理高達 300 億 token 的數據。今年,我們預計將看到 1000 億 token 級別的任務。每當基礎模型的能力有所提升時,我們往往早已更進壹步。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見