-
日期: 2025-07-01 | 來源: 騰訊 | 有0人參與評論 | 字體: 小 中 大
為了真正理解這些AI公司今天所擁有的影響力,我們必須把它們看作是壹種新的“帝國形態”。這也是我將書名定為《AI帝國》的原因。
問:現在很多人都在日常生活中接觸到這些AI產品,比如ChatGPT。過去這可能還只是壹些“科幻概念”,但現在它已經進入了教育、工作、寫作等各種場景,引發了很多討論,比如:AI到底對我們意味著什麼?它是不是在讓我們停止思考?甚至在改變整個教育體系?
答:是的,AI已經從壹個遙遠的技術話題,變成了日常生活中不可忽視的現實存在。學生用它寫作業,老師再也不能像過去那樣輕松設計出“防作弊”的試題。這種轉變確實引發了許多根本性的問題,比如,“教育”的意義究竟是什麼?我們到底是在傳授知識,還是在教思考和判斷?如果未來的人們因為依賴AI而逐漸喪失了推理、學習、批判性思維的能力,我們的社會又會變成什麼樣子?
但這不僅是教育的問題,更是整個社會的問題。我們還需要進壹步追問:AI會對哪些職業和勞動形態產生沖擊?哪些人可能從中受益?哪些人將被邊緣化,甚至被系統性地剝奪話語權?而這些問題的核心,並不只是“AI是否強大”,而是“AI由誰開發”“為何而開發”“開發過程中誰被代表、誰被排除”。
很多公眾對於AI的認識仍停留在“智能增強工具”或“潛在的通用智能”的想象之中,但我們往往忽視了它已經在現實中造成的結構性影響
——比如強化平台權力、擴大社會不平等、加劇資源消耗等。而這些後果,恰恰源於當下主導AI開發的邏輯:不計代價地追逐規模和速度,忽視過程中的社會成本。
所以,當我們討論AI是否在改變教育、工作、社會秩序時,必須回到它所嵌入的政治經濟結構中去理解:我們需要什麼樣的AI,誰來決定這些技術的發展方向,它究竟是為了誰而服務?
問:這些問題的背後其實是壹些主導性的“故事”。你提到過,現在主導AI討論的兩種說法,壹種是“AI將帶我們走向烏托邦”,另壹種是“AI將毀滅我們”。你把這兩種立場分別稱為“技術樂觀派”和“末日論者”。能否具體說說它們的本質區別和共同點?
答:我稱他們為“技術樂觀派”(Boomers)和“末日論者”(Doomers),這是硅谷圈子裡也常用的術語。
表面看,這兩個陣營似乎意見對立,但它們其實有壹個共同點:都把AI描繪成極其強大的力量。
這就形成了壹個潛在的危險:無論是說AI將拯救世界,還是說它會毀滅人類,最終都會導向同壹個結論——這項技術太重要了,必須由少數人來掌控。而這些人,往往正是講“故事”的科技公司領導者,比如OpenAI首席執行官奧特曼。
我在書裡也揭示了這種“控制欲”:他們用通用人工智能(AGI
)這個概念來延續“再造人類智能”的夢想,制造出壹種神秘而宏大的未來願景。
而這套故事背後,是巨大的資源投入:數據、能源、計算能力,甚至勞動力。
問:說到資源,AI到底需要多少資源才能運行?我們日常使用這些工具時,背後消耗的是什麼?是不是有點像壹個“黑匣子”?
答:是的,我們今天看到的AI系統,大多基於壹種叫“深度學習”的技術。它使用“神經網絡”來處理和理解數據——這些網絡原本是受到人腦啟發設計的。
OpenAI最早做的事,就是把這種深度學習技術應用在極大規模的數據上。他們不是在壹個筆記本電腦上訓練模型,而是用上萬個芯片,組成超級計算機,全天候運行幾個月來訓練壹個模型。他們幾乎用了整個互聯網的英文內容,還有其他幾種語言的數據。
最近麥肯錫的壹份報告指出,如果照現在這種“無限擴大”的速度發展AI,伍年內,美國電力系統需要增加相當於2到6個加州全年電力消耗的容量,才能滿足AI的發展需要。
問:除了環境,還有壹個容易被忽視的問題是人力勞動。這些模型的構建其實並不是完全“自動化”的,對吧?
答:是的,AI的“智能”背後,其實是大量人工勞力在支撐
。舉例來說,為了讓模型不輸出仇恨言論、色情內容或暴力信息,AI企業需要雇傭成千上萬的合同工進行“內容審查”和“數據清洗”。他們反復觀看、標注、刪除有害內容——這是壹項高度重復、極具精神沖擊的工作。
在社交媒體早期階段,內容審核員就已經被證實會患上創傷後應激障礙(PTSD),AI領域同樣存在這種傷害。但不同的是,AI企業現在更加刻意地掩蓋這些“看不見的人工勞工”,因為他們想讓AI看起來就像“魔法”- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見