-
日期: 2021-10-05 | 来源: 新智元 | 有14人参与评论 | 专栏: 脸书 | 字体: 小 中 大
虽然该公司一再声称,至少在自己的产品上,它正在帮助阻止仇恨言论,但Haugen泄露的一份 Facebook内部文件表明:
「我们预计,我们的优化可能只会对Facebook上3%-5%的仇恨言论、大约0.6%的暴力和煽动内容产生作用,尽管在这一点上我们已经做到世界上做好了。」
另一份文件甚至更加直白:我们从各种渠道获得的证据表明,仇恨言论、分裂性政治言论以及 Facebook 和旗下其他应用程序的错误信息正在影响世界各地的社会。
Haugen声称问题的根源在于「2018年推出的算法控制了你在平台上看到的东西」。
你用手机滑动五分钟,可能只能看到100条内容。但是 Facebook 可以向你展示成千上万种选择。
该算法根据你过去接触最多的内容类型来推送信息,通过参与度优化内容。
她表示,Facebook为了提高用户的参与度,发现最好的参与方式便是向用户灌输恐惧和憎恨。
因为激发人们的愤怒比激发其他情绪更容易。
1.6国会暴乱,Ins青少年自杀倾向,还有什么?
当时,扎克伯格称算法的改变是正面的。
「我们觉得有责任确保我们的服务不仅仅是有趣的,而且有益于人们的福祉。」
对社会负面影响案例不是没有,2018年缅甸军方利用 Facebook 发动种族灭绝,包括种族暴力。
还有2020年大选,Facebook 明白其潜在的危险,因此启动了安全系统,以减少错误信息。
但Haugen表示,许多变化都是暂时的, 选举一结束,他们就把安全系统关闭了。
但是,在选举之后,Facebook 被一些人用来组织1月6日的起义,即2021年美国国会大厦遭冲击事件。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接: