- 
日期: 2025-10-31 | 来源: 新周刊 | 有0人参与评论 | 字体: 小 中 大
(图/《西蒙妮》)
对AI内容的不适感,本质上来自两种恐惧:一是分辨不出真假,二是被分辨不出真假这件事激怒。前者是能力问题,后者是尊严问题。当你发现自己被一段AI视频骗得团团转,甚至为它流泪、愤怒,直到转发后才发现上当,那种“被操纵”的愤怒是技术恐惧与控制感的丧失的双重叠加。
从原始社会到前AI文明,人类从建立信任、传递信息到构建共识的基础,都是眼见为实。但当AI可以生成以假乱真的任何画面,这套认知体系就开始逐渐崩塌了。倒不是说完全失效,而是你得先证明这是真的。
该图片疑似AI生成
抵制AI内容的笔记。(图/社交媒体截图)
这也是Sora的出现让观众的角色变得前所未有地尴尬的原因。
如今在互联网上,所有人仿佛都被迫兼职当起“AI判官”,刷到一段视频,就要猜是不是AI生成的。有人甚至在电影节上都在质疑演员是否被偷偷换脸。
人们越来越像是坐在一个无形的评审团里,时刻准备揭穿某个镜头的“造假”。这种怀疑越来越像是一种心理负担。观众不是来做法医的,每次判断真伪,都在消耗观看的乐趣。欣赏的根本,至少不该建立在追查素材来源的基础上。
媒介技术越发达,我们彼此信任的成本也就越高。不过,人类就是这么矛盾:既想保持警惕,又无法抗拒好奇;既担心被欺骗,又享受被惊艳。
这就成了当下AI生成内容最大的悖论:每次争议都在呼吁监管,但监管越多,越显得无力。因为问题在于我们还没想清楚,到底想让AI参与创作到什么程度。
(图/《西蒙妮》)
我们也许正处在一个过渡阶段,真与假,正在从技术问题变成心理问题。过去相信眼见为实,现在只能“怀疑为常”。
所以,当大家在激烈讨论“AI会不会取代演员”,我脑子里蹦出的却是另一句灵魂之问——剪秋到底有没打开食盒?现在明明有视频为证。- 新闻来源于其它媒体,内容不代表本站立场!
 
 - 
原文链接
原文链接:
 
目前还没有人发表评论, 大家都在期待您的高见