-
日期: 2025-10-31 | 來源: 新周刊 | 有0人參與評論 | 字體: 小 中 大
(圖/《西蒙妮》)
對AI內容的不適感,本質上來自兩種恐懼:壹是分辨不出真假,贰是被分辨不出真假這件事激怒。前者是能力問題,後者是尊嚴問題。當你發現自己被壹段AI視頻騙得團團轉,甚至為它流淚、憤怒,直到轉發後才發現上當,那種“被操縱”的憤怒是技術恐懼與控制感的喪失的雙重疊加。
從原始社會到前AI文明,人類從建立信任、傳遞信息到構建共識的基礎,都是眼見為實。但當AI可以生成以假亂真的任何畫面,這套認知體系就開始逐漸崩塌了。倒不是說完全失效,而是你得先證明這是真的。
該圖片疑似AI生成
抵制AI內容的筆記。(圖/社交媒體截圖)
這也是Sora的出現讓觀眾的角色變得前所未有地尷尬的原因。
如今在互聯網上,所有人仿佛都被迫兼職當起“AI判官”,刷到壹段視頻,就要猜是不是AI生成的。有人甚至在電影節上都在質疑演員是否被偷偷換臉。
人們越來越像是坐在壹個無形的評審團裡,時刻准備揭穿某個鏡頭的“造假”。這種懷疑越來越像是壹種心理負擔。觀眾不是來做法醫的,每次判斷真偽,都在消耗觀看的樂趣。欣賞的根本,至少不該建立在追查素材來源的基礎上。
媒介技術越發達,我們彼此信任的成本也就越高。不過,人類就是這麼矛盾:既想保持警惕,又無法抗拒好奇;既擔心被欺騙,又享受被驚艷。
這就成了當下AI生成內容最大的悖論:每次爭議都在呼吁監管,但監管越多,越顯得無力。因為問題在於我們還沒想清楚,到底想讓AI參與創作到什麼程度。
(圖/《西蒙妮》)
我們也許正處在壹個過渡階段,真與假,正在從技術問題變成心理問題。過去相信眼見為實,現在只能“懷疑為常”。
所以,當大家在激烈討論“AI會不會取代演員”,我腦子裡蹦出的卻是另壹句靈魂之問——剪秋到底有沒打開食盒?現在明明有視頻為證。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見