-
日期: 2025-07-01 | 来源: 腾讯 | 有0人参与评论 | 字体: 小 中 大
为了真正理解这些AI公司今天所拥有的影响力,我们必须把它们看作是一种新的“帝国形态”。这也是我将书名定为《AI帝国》的原因。
问:现在很多人都在日常生活中接触到这些AI产品,比如ChatGPT。过去这可能还只是一些“科幻概念”,但现在它已经进入了教育、工作、写作等各种场景,引发了很多讨论,比如:AI到底对我们意味着什么?它是不是在让我们停止思考?甚至在改变整个教育体系?
答:是的,AI已经从一个遥远的技术话题,变成了日常生活中不可忽视的现实存在。学生用它写作业,老师再也不能像过去那样轻松设计出“防作弊”的试题。这种转变确实引发了许多根本性的问题,比如,“教育”的意义究竟是什么?我们到底是在传授知识,还是在教思考和判断?如果未来的人们因为依赖AI而逐渐丧失了推理、学习、批判性思维的能力,我们的社会又会变成什么样子?
但这不仅是教育的问题,更是整个社会的问题。我们还需要进一步追问:AI会对哪些职业和劳动形态产生冲击?哪些人可能从中受益?哪些人将被边缘化,甚至被系统性地剥夺话语权?而这些问题的核心,并不只是“AI是否强大”,而是“AI由谁开发”“为何而开发”“开发过程中谁被代表、谁被排除”。
很多公众对于AI的认识仍停留在“智能增强工具”或“潜在的通用智能”的想象之中,但我们往往忽视了它已经在现实中造成的结构性影响
——比如强化平台权力、扩大社会不平等、加剧资源消耗等。而这些后果,恰恰源于当下主导AI开发的逻辑:不计代价地追逐规模和速度,忽视过程中的社会成本。
所以,当我们讨论AI是否在改变教育、工作、社会秩序时,必须回到它所嵌入的政治经济结构中去理解:我们需要什么样的AI,谁来决定这些技术的发展方向,它究竟是为了谁而服务?
问:这些问题的背后其实是一些主导性的“故事”。你提到过,现在主导AI讨论的两种说法,一种是“AI将带我们走向乌托邦”,另一种是“AI将毁灭我们”。你把这两种立场分别称为“技术乐观派”和“末日论者”。能否具体说说它们的本质区别和共同点?
答:我称他们为“技术乐观派”(Boomers)和“末日论者”(Doomers),这是硅谷圈子里也常用的术语。
表面看,这两个阵营似乎意见对立,但它们其实有一个共同点:都把AI描绘成极其强大的力量。
这就形成了一个潜在的危险:无论是说AI将拯救世界,还是说它会毁灭人类,最终都会导向同一个结论——这项技术太重要了,必须由少数人来掌控。而这些人,往往正是讲“故事”的科技公司领导者,比如OpenAI首席执行官奥特曼。
我在书里也揭示了这种“控制欲”:他们用通用人工智能(AGI
)这个概念来延续“再造人类智能”的梦想,制造出一种神秘而宏大的未来愿景。
而这套故事背后,是巨大的资源投入:数据、能源、计算能力,甚至劳动力。
问:说到资源,AI到底需要多少资源才能运行?我们日常使用这些工具时,背后消耗的是什么?是不是有点像一个“黑匣子”?
答:是的,我们今天看到的AI系统,大多基于一种叫“深度学习”的技术。它使用“神经网络”来处理和理解数据——这些网络原本是受到人脑启发设计的。
OpenAI最早做的事,就是把这种深度学习技术应用在极大规模的数据上。他们不是在一个笔记本电脑上训练模型,而是用上万个芯片,组成超级计算机,全天候运行几个月来训练一个模型。他们几乎用了整个互联网的英文内容,还有其他几种语言的数据。
最近麦肯锡的一份报告指出,如果照现在这种“无限扩大”的速度发展AI,五年内,美国电力系统需要增加相当于2到6个加州全年电力消耗的容量,才能满足AI的发展需要。
问:除了环境,还有一个容易被忽视的问题是人力劳动。这些模型的构建其实并不是完全“自动化”的,对吧?
答:是的,AI的“智能”背后,其实是大量人工劳力在支撑
。举例来说,为了让模型不输出仇恨言论、色情内容或暴力信息,AI企业需要雇佣成千上万的合同工进行“内容审查”和“数据清洗”。他们反复观看、标注、删除有害内容——这是一项高度重复、极具精神冲击的工作。
在社交媒体早期阶段,内容审核员就已经被证实会患上创伤后应激障碍(PTSD),AI领域同样存在这种伤害。但不同的是,AI企业现在更加刻意地掩盖这些“看不见的人工劳工”,因为他们想让AI看起来就像“魔法”- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见