-
日期: 2021-10-05 | 来源: 纽约时间、BBC中文网 | 有0人参与评论 | 专栏: 脸书 | 字体: 小 中 大
弗朗西斯·豪根告诉我们,她是在2019年被Facebook招募的。她说,她同意接受这份工作的唯一条件是,她可以从事反对错误信息的工作,因为她曾因网上的阴谋论而失去一位朋友。
弗朗西斯·豪根:我不想让任何人感受到我曾感受过的痛苦。我也看到了在确保Facebook上有高质量的信息方面的风险有多大。
在总部,她被分配到公民诚信部,负责处理选举风险,包括错误信息。但在过去的选举之后,出现了一个转折点。
弗朗西斯·豪根:他们告诉我们,"我们要解散公民诚信部门"。就像,他们基本上是说,"哦,很好,我们度过了选举。没有发生骚乱。我们现在可以摆脱公民诚信部门了。"在几个月前,我们发生了叛乱。当他们摆脱了公民诚信部门时,那一刻我想,"我不相信他们愿意真正投入需要投入的东西,以阻止Facebook变得更危险。"
Facebook说,公民诚信部的工作被分配到其他单位。豪根告诉我们,Facebook的问题根源在于它在2018年对其算法做出的改变——程序决定你在Facebook新闻源上看到什么。
弗朗西斯·豪根:所以,你知道,你有你的手机。如果你坐下来,滚动5分钟,你可能只看到100条内容。但Facebook有成千上万的选项,它可以向你展示。
算法会根据你过去参与最多的那种内容,从这些选项中进行挑选。
弗朗西斯·豪根:今天,Facebook挑选内容的一个后果是,它正在优化那些能够获得参与或反应的内容。但它自己的研究表明,那些充满仇恨、分裂、分化的内容,比起其他情绪,更容易激起人们的愤怒。
斯科特·佩利:错误的信息,愤怒的内容——对人们有诱惑力,并持续有。
弗朗西斯·豪根:非常诱人。
斯科特·佩利: 还能让他们留在这个平台上。
弗朗西斯·豪根:是的。Facebook已经意识到,如果他们把算法改得更安全,人们在网站上花费的时间就会减少,他们点击的广告就会减少,他们赚的钱就会减少。
豪根说,Facebook明白对2020年选举的危险。因此,它开启了安全系统,以减少错误信息——但她说,其中许多变化只是暂时的。
弗朗西斯·豪根:选举一结束,他们又把它们关掉了,或者把设置改回以前的样子,把增长置于安全之上。
对我来说,这真的感觉这是对民主的背叛。
Facebook说,一些安全系统仍然存在。但是,选举之后,Facebook被一些人用来组织1月6日的叛乱。检察官引用了脸书上的帖子作为证据——武装游击队员的照片和包括"通过子弹或选票恢复共和国即将到来!"的文字。极端分子使用了许多平台,但Facebook是一个反复出现的主题。
袭击发生后,Facebook员工在豪根复制的一个内部留言板上怒斥。"......我们还没有足够的时间来弄清楚如何在不启用暴力的情况下管理言论吗?"我们寻找积极的评论,发现了这样一句话:"我不认为我们的领导团队无视数据,无视异议,无视真相......"但这句话引来了这样的回复:"欢迎来到Facebook!。我看到你在2020年11月刚刚加入......我们一直观察了......公司领导层多年来的胡作非为。""......同事们......为一家不做更多工作来减轻其平台的负面影响的公司工作,是无法让人感到安心的。"
斯科特·佩利:Facebook本质上放大了人性中最坏的一面。
弗朗西斯·豪根:这是其中一个不幸的后果,对吗?脸书上没有人是恶意的,但激励机制是错位的,对吗?比如,当你消费更多的内容时,Facebook会赚更多的钱。人们喜欢参与那些引起情绪反应的东西。他们接触到的愤怒越多,他们的互动就越多,消费就越多。
这种动态导致欧洲各地主要政党向Facebook投诉。豪根获得的这份2019年内部报告称,这些政党"......强烈认为算法的改变迫使他们在脸书上的交流中偏向负面......导致他们的政策立场更加极端。"
斯科特·佩利:欧洲各政党基本上是在对Facebook说,你编写算法的方式正在改变我们领导国家的方式。
弗朗西斯·豪根:是的。你正在迫使我们采取我们不喜欢的立场,我们知道这对社会不利。我们知道,如果我们不采取这些立场,我们就无法在社交媒体的市场上获胜。
她说,伤害的证据延伸到了Facebook的Instagram应用。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见