-
日期: 2025-12-30 | 來源: 果殼 | 有0人參與評論 | 字體: 小 中 大
還記得幾年前人類第壹次見到 AI 生圖時的反應嗎?
先是靠判斷違背物理常識的“壹眼假”,比如生成的手指個數不對又變形,生成的人類永遠吃不好面條。
隨著 AI 發生常識性錯誤在壹點點減少,它又走向另壹個“極端”,生成的人像皮膚太光滑、光線太扁平、構圖太端正,乍壹看像P過的影樓寫真。“這不像是人拍的”,對此,我們還能發出經驗主義的警覺。
猛壹看很真實,細看太過完美光滑|APOB AI
但是,朋友們,在這個人機難辨的時代,任何識別經驗都會被隨時淘汰。
新的 AI 圖像模型開始主動往“差壹點”的方向走了。它們學會模仿手機攝影出現的不完美的質感:對比度不高、銳化過頭、陰影被硬生生拉亮、構圖帶點隨意,甚至有點糊。
也就是說,AI 不再追求生成“最好的照片”,而是試著生成“你會拍出來的那種照片”。而正是這些“瑕疵”,讓圖像突然變得可信了。
這個變化節點透露出壹絲更加“危險”的氣息,AI 正在學習如何顯得不那麼完美,就像人類壹樣。
AI:我裝的
真實世界從來不是高清、完美、對稱、幹淨的。我們之所以相信壹張照片是真的,並不是因為它好看,而是因為它符合我們記錄現實的方式。
早期的 AI 圖像,它們最大的破綻是壹種詭異的“完美”。圖像每壹顆像素都太滑、太亮、太幹淨了,就像是把“磨皮”開到最大後又抹了層油和蠟,人像宛如蠟像,不生動。
原因很簡單,當你輸入“壹張桌子”,AI 會生成壹個“在任何評判標准下都符合的結果”,它大概率是壹張“教科書圖”。而且,從數據來源來說,往往被反復標注和引用的圖片都是這種“標准圖”,模型早期的核心邏輯是在真實中“求平均值”,AI 會調取它數據庫裡見過的幾拾億張桌子,然後取壹個中間值,那種隨手壹拍家裡的髒亂桌子圖在這種巨量的平均之下被“稀釋”了。
去掉“油蠟感”是 AI 生圖擬真的重點|X
而今天訓練模型的人在教 AI “搞砸”。
以最近 Gemini 裡集成的 Nano Banana 為例。它生成的圖像裡,有著明顯的過度銳化,對比度拉得死高,暗部細節丟失,甚至還有那種因為傳感器太小而產生的特有噪點。
我們知道因為手機能承載的傳感器很小,為了彌補光學上的先天不足,手機廠商會使用多幀合成算法,“暴力”地提升陰影亮度,銳化邊緣以制造“清晰”的假象。
久而久之,我們的眼睛被手機廠商馴化得習慣了“手機味兒”,當 AI 開始模仿這種物理光學上的局限性時,其實是模仿人類的被上壹代機器“馴化”後的認知方式。
OpenAI 剛升級的 ChatGPT Images,在宣傳片中也主打“真實拍攝感”|OpenAI
當 AI 圖像不再試圖渲染物理世界真實的光影,轉而去渲染“手機攝像頭裡的世界”,用 The Verge 的評論,這叫“AI 學會了巧妙地繞過恐怖谷”。
這跟手機拍的風景照有什麼區別?|The Verge
另外,Sora 2 和 Veo 3 也開始生成那種顆粒感拾足的“監控畫質”視頻,它們利用了的壹個邏輯:利用媒介的低劣,來掩蓋內容的虛構。
這張 AI 圖片也曾騙過無數網友,“隨手壹拍”的臨場感加上模仿手機的攝影效果|Reddit
而這種“主動變差”的策略,並不只發生在圖像生成模型上。
“繞過恐怖谷,巧妙地”
你有沒有發現,聊天機器人也變了?
從壹開始那個“高智力低情商”的“偽人”——說話滴水不漏,姿態居高臨下,態度理性生硬,變得會猶豫、會共情、主動暴露脆弱。
有限的理性,偶爾的詞不達意,語氣中不可避免地透露出個人情緒......這些才是正常人類的表達。
去問 AI,AI 也會說這是壹種“後台策略”|ChatGPT
所以當壹個 AI “有意”展露出這些,反而比壹個絕對理性、穩定、客觀中立的“聊天對象”更能拉近距離感,對此我們下意識的反應是,“挺有個性”、“完了,它好像真的在思考”。
這些“障眼法”背後是壹個關鍵的問題,當 AI 展示不完美時,它到底是在暴露能力的邊界?還是在展示能力本身?答案恐怕是後者。
它在判斷“什麼樣的結果更容易被人類接受”:脆弱、遲疑、模糊、噪點?這些過去被視為缺陷的東西,正在變成 AI 博取人類信任的表演策略。
這就像我們在讀書時期偶爾聽說的會控分考試的天才學生。
當壹個人,隨時決定要不要示弱,不是他真的被攻擊到了,而是示弱被他當作壹種社交能力。AI 也是如此,當它表現出猶豫,並不意味著它不知道答案,而是知道這種表達更容易讓人卸下防備。
AI 開始理解,人類對“像人”的判斷,本身就建立在不完美之上。真實感的來源不是堆參數達到的技術指標,而是壹種心理暗示和心理反饋。
AI 生成“低像素”的澳大利亞邦迪海灘恐襲“陰謀論”圖片|圖源:X
事實證明,壹直以來我們判斷真實與否本身就帶著人類的局限。
就像人類看不到紅外與紫外光,聽不到 20Hz 以下的低頻,我們感知到的“現實”,本就只是壹個被生理和心理共同裁剪過的版本。
從這壹點上來說,比剝離出 AI 生成但符合人類預期的虛假更難的是,逼迫人類承認判斷主觀和認知局限。
AI 繞過恐怖谷的新策略,不是全力擬真,追求零差錯,而是精准地設計出恰好落在我們信任閾值之內的“真實”。
作者:糕級凍霧
編輯:沈知涵- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見