-
日期: 2025-03-20 | 来源: iWeekly画报 | 有0人参与评论 | 字体: 小 中 大
代表《洛杉矶时报》记者的工会随后发表声明,对“未经编辑部审核的AI生成分析”表示担忧。工会表示,他们不认为这种做法会“增强公众对媒体的信任,相反,这种工具可能会进一步削弱新闻机构的公信力”。
《洛杉矶时报》的实践并不是唯一一起证明AI生成内容不可靠的事件。苹果AI在英国推出后数天,发布了一条完全虚假的新闻推送。这条推送假借BBC的报道,称26岁的路易吉·曼吉奥尼(Luigi Mangione)开枪自杀。他因涉嫌在2024年12月谋杀联合健康保险公司(UnitedHealthcare)CEO布莱恩·汤普森(Brian Thompson)而被逮捕。BBC称,苹果AI功能错误地总结了BBC的报道,使其听起来像是该嫌疑人自杀。这是AI错误报道的又一个引人注目的例子,再次引发了关于技术作为信息中介所扮演角色的严重质疑。
AI偏见如何让生成内容不可靠? 《洛杉矶时报》的案例事实上是AI偏见存在的有力证据。AI大语言模型(LLM)的训练数据是AI偏见的主要来源。LLM学习的是庞大的文本数据,这些数据往往包含历史和当代的偏见。即使再精心筛选,也很难完全消除训练数据中的偏见。毕竟,AI反映的是我们的社会,而我们的社会本身就远非公正无偏。数据收集的方式也可能加剧偏见。许多数据来源并不能代表所有人口群体,这可能导致对某些群体(如少数族裔、女性、性少数、身障人士)的偏见。
此外,训练数据往往具有历史性,会反映过去几代人的偏见。这种偏见可能会进一步强化过时的刻板印象,使它们在AI系统中得以延续。数据困境极其复杂,要求AI研究人员慎重考虑数据来源及其可能带来的偏见。这也导致使用AI生成的内容往往包含这项几乎无法去除的偏见。而如《洛杉矶时报》类似的实践——使用AI反向规训人类写作者——会让这种偏见进一步固化。
而苹果AI事件则指向另一个AI生成内容可能存在的问题——“AI幻觉”(AI hallucination)。AI幻觉是由人工智能生成的一种回应,它含有貌似事实的虚假或误导性资讯。也就是说,AI会在生成内容时“瞎编”。AI可能完全编造“事实”。AI生成的图像可能看起来像真实的照片,但实际上展示的却是从未发生过的事情。视频也可以完全由AI生成,或者通过AI编辑来改变其上下文。生成性AI也经常被用于撰写标题或总结文章。苹果AI事件就是这种幻觉的体现。
这意味着,AI并不可能完全取代经过专业训练的记者。《Il Foglio AI》更像是一种新闻实验,但是并不能真正形成完全由AI主导的内容生产方式。无论AI如何进步,专业记者都必须核实事实、解读事件,并以诚信塑造叙事。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见