AI 最可怕的是我们已经不相信这是一张真实照片

太依赖“眼见为实”,不仅会伤害感情,还会伤害钱包啊。于是就出现了反向操作:一律打成 AI。


反向操作,只要不认识,就是 AI 图

这样做的背后,起码有一个原因是成立的:躲开平台的推送。

Meta 是明确表示要高举 AI 大旗,扎克伯格认为,有必要专门加一个版块给 AI 生成或者辅助生成的内容,他说,“我非常有信心,在未来几年里,这将成为重要的趋势之一和重要的应用之一”。

Meta 旗下有 Facebook 和 Instagram 两个重要的内容平台,而在前者上,AI 生成内容越来越多见,因为它的激励政策很诱人:每个超过 1000 赞的帖子,最高可以获得 10 美元的曝光奖励。

有一说一,如果能坚定执行“一律打成 AI”的路线,有效打击假消息的传播,倒逼平台不再给这些内容推流量、给补贴,说不定是个走得通的路子。没有买卖,就没有伤害。

然而,这种真假难辨的情况,可能会让真正的伤害,消失在互联网的信息海洋中。

互联网观察基金会 IWF 报告,在过去六个月里,由人工智能制作的非法内容数量已经超过了前一年的总量。而且都是在社交平台、公共图库等公开平台上发现的。



这些非法内容包括 AI 生成的儿童色情图片、视频;融合了明星名人的照片的 Deepfake 视频;生成的儿童性虐待裸照等等。

更严重的问题是,很多 AI 生成的内容已经到了一个临界点。由于过于逼真,工作人员不能轻易确定假图里面是不是有真人,是不是真的有儿童遭到虐待、需要介入。

作为非营利组织,IMF 这样的机构只能是收集证据、与平台交涉要求删除。而真正有能力进行更深一步调查的,只有警方和其他执法人员。


当海量的生成照片需要他们来处理,而这些照片都逼真的无人能辨别时,“一律打成 AI”会导致真照片混杂其中,没法被辨识出来,从而错过干预的机会。

IWF 的分析师表示,“我们所处理的几乎所有包含 AI 生成的儿童性虐待材料的报告或链接,都是在明网上发现的。像我们这样的组织或者警察,可能会被成百上千张新图片压垮,我们并不总能知道是否真的有一个孩子需要帮助”。



类似的,当“狼来了”的游戏不断扩大,真正反映、通报险情的消息,被安上“AI 做的吧”,从而错过最佳施救时间,也是一种恶果。

从“眼前为实”到“眼见不再为实”的过程中,消失的是在网上冲浪时的信任。出于自我保护、减少谣言散布,一律打成 AI 的确是一种有效策略。但一切都不值得相信的世界,会更好吗?

[物价飞涨的时候 这样省钱购物很爽]
无评论不新闻,发表一下您的意见吧
上一页1234下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
     推荐:

    意见

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *: 
    安全校验码 *:  请在此处输入图片中的数字
    The Captcha image  (请在此处输入图片中的数字)



    Copyright © 温哥华网, all rights are reserved.

    温哥华网为北美中文网传媒集团旗下网站