-
日期: 2022-06-25 | 来源: 虎嗅APP | 有0人参与评论 | 专栏: 谷歌 | 字体: 小 中 大
标题:在俩机器人开始用自己能听懂的语言对话后,facebook关闭了这个项目
只是不得不感慨,7年过去,即便这类荒诞事件早已填满了我们日常生活,但大量有相关认知基础的大众(包含不少知识分子)仍然愿意相信,且乐于相信。
他们多沉浸于这样虚无缥缈的未来幻象中,却对早已埋伏身边已久的危险无动于衷。
事实上,我们恰恰正在陷入一种早已谋划好的陷阱中——被这些科幻故事转移注意力,被媒体舆论引向一种愈加相信主观印象而非科学证据做判断的思维方式。
“我们的确应该关注意识与感知,但却被模糊了重点。”
因提出“大模型现实性危害”而被开除的谷歌前人工智能道德团队负责人Timnit Gebru 认为,大多数关于算法的讨论,都仅限于技术端,却没有看到它掉在我们脚下泥土里产生的危害。
“我们被完全带偏了。
Blake Lemoine 其实就是一个无休止技术炒作的受害者,转移了人工智能引发的无数道德与社会正义问题的注意力。”
这些问题包括:LaMDA是如何被训练出来的,它有多少产生有害文本的倾向。以及多年来由它引发的“人工智能殖民主义”、错误的商业应用——国内各类荒腔走板的购房与校园人脸应用,而美国也发生过至少有三名无辜的人因人脸误识别被逮捕的悲伤事件。
麻省理工学院科技评论指出,在过去几年中,越来越多的学者开始意识到,人工智能的影响正在复制“欧洲殖民历史”的经济模式
——暴力夺取土地、开采资源和剥削人民,以牺牲穷人的利益为代价,让富人和有权势的人变得更加富有。
譬如,在那些市值总额超过万亿的云计算数据中心与汽车巨头的自动驾驶系统背后,是成千上万个来自委内瑞拉等贫穷国家的廉价数据标注劳动力。
因此,在接受媒体采访时,Gebru 拒绝讨论机器的感知能力。因为“在所有涉及到机器危险的现实情况下,都只是‘人类在伤害其他人类’”。
假如,我们把聊天机器人当成好朋友和亲人来看待,那么其背后的公司和其他机构是否会打我们的歪主意
?但另一方面,如果我们把算法当成不值得尊重的玩意儿,那么对技术的剥削,从本质来看,是否只是加强了对彼此和自然环境的剥削?
自我觉醒的迫切性
我并不奇怪于国外对LaMDA事件讨论的多样性与丰富度。
7年前,当人工智能技术繁荣的号角在硅谷与国内同时响起时,就已经有不少硅谷顶级科学家流露出对“人工智能与人性之间会产生激烈对抗”的担忧。
而那个时候,对包括人工智能、大数据等一众前沿技术倍感欣奇与喜悦的我们,对当时很多关于“种族偏见、技术剥削”的悲观性预测感到不解,也对谷歌内部一波又一波引发的“技术歧视大游行”感到头疼,对Facebook在2018年因数据泄露遭受洪水般袭击时无动于衷,对欧洲人工智能技术立法的争议与反复感到不耐烦……
娱乐至死、商业化与技术带来的便利性占据了我们的大脑
,我们为科技公司的产品与技术竞赛摇旗呐喊,对企业市值的扶摇直上给予无休止的追捧,对科学家与创业者的衡量标准只有“技术”与“商业”。
但却唯独缺少了“人性”。
因为觉得这似乎与科技,与自己都毫无关系。
于是,
现在来看,很多人,包括我自己,不得不为自己的愚蠢、目光短浅和心胸狭隘而买单。
后来的后来,当我们遭遇数据泄露和人脸买卖时,对企业的批判开始猛烈,却收效甚微。2020年9月,一篇优秀特稿《外卖骑手,困在系统里》将企业利益、算法与人性的冲突推到了中国大众面前,这也是算法伦理问题在国内引发最为广泛的一次探讨。
直到现在,我仍然记得文章里那句算法的社会学含义——“在西弗教授看来,算法不仅由理性的程序形成,还由制度、人类、交叉环境和在普通文化生活中获得的粗糙-现成的理解形成
。”
然而,它虽然揭露了现状,但解决方案却极为苍白,因为这涉及到一整个城市运行系统的改造,而不能单单强调“对程序员社会科学观念的培养”- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见