-
日期: 2025-07-01 | 來源: 騰訊 | 有0人參與評論 | 字體: 小 中 大

在斯坦福商學院最新壹期的網絡節目《權力與真相》中,斯坦福大學教授、企業與社會倡議(CASI)項目主任Anat Admati(音譯:阿納特·阿德馬蒂)與《大西洋》月刊獲獎記者Karen Hao(音譯:郝珂靈)進行了壹場對話,撕開了AI領域最鋒利的切口——從1956年達特茅斯學院的實驗室誕生起,“人工智能”這個概念就帶著雙重基因:既是對技術突破的憧憬,也是壹場爭奪資源的“好故事”。
Karen Hao畢業於麻省理工學院,曝料過多家美國科技巨頭的黑幕,因新聞報道獲得多個獎項。她在日前出版的新書《AI帝國:山姆·奧特曼與OpenAI的夢想與噩夢》(Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI)中,揭示了OpenAI內部對通用人工智能兩種截然不同的信仰以及權力斗爭內幕。
在這場對話中,兩位嘉賓提到了幾個核心關鍵點:
1、目前行業對AI的態度,無論是支持還是質疑,最終都在強化壹個問題:這項技術太重要,必須由少數人來掌控。而這些人,往往正是講“故事”的科技公司領導者。
2、AI看似智能,其實背後靠的是大量隱形人力,而有些企業刻意掩蓋這壹點,只為讓AI看起來像“魔法”。
3、科技公司們對AI研究中心的資助正逐漸侵蝕學術獨立性,使得學者趨於回避批評、強調潛力,從而弱化了對AI社會責任與倫理問題的討論。
4、目前,美國的AI企業與美國政府正聯手構建“科技帝國”,試圖將技術輸出全球,掌控話語權。
以下為訪談內容摘要:
問:歡迎你,
Karen。你的新書剛剛出版。這本書聚焦於OpenAI和它的掌舵人奧特曼,同時聚焦於當前學術界與社會廣泛討論的“AI”命題。在正式展開探討前,我想先請你從基礎層面談談:究竟什麼是AI?它又是如何發展至當前階段的?
答:AI這個詞是在1956年由達特茅斯學院的壹位助理教授約翰·麥卡錫(John McCarthy)提出的。他當時起這個名字的目的是為了給自己正在進行的研究爭取更多的關注和資金。幾拾年後他在壹次公開辯論中親口承認,發明“AI”這個術語本身就是為了當時的研究爭取更多資金。
這個詞聽起來很有吸引力,尤其是“智能”這個概念,大家本能地會覺得“更智能”就是“更好”。但問題是,關於人類智能本身的來源,我們至今都沒有科學共識。因此,創建壹個以 “再造人類智能” 為使命的領域,本身就充滿不確定性。
從1956年到現在,這個領域內部壹直在爭論:AI到底該是什麼樣的?該用什麼技術?它該為誰服務?我在書裡提出的觀點是,現在主導AI發展的路徑,其實主要是服務於硅谷的利益——在“技術服務於人類”的敘事外衣下,硅谷借此積累了巨大的經濟與政治權力。
為了真正理解這些AI公司今天所擁有的影響力,我們必須把它們看作是壹種新的“帝國形態”。這也是我將書名定為《AI帝國》的原因。
問:現在很多人都在日常生活中接觸到這些AI產品,比如ChatGPT。過去這可能還只是壹些“科幻概念”,但現在它已經進入了教育、工作、寫作等各種場景,引發了很多討論,比如:AI到底對我們意味著什麼?它是不是在讓我們停止思考?甚至在改變整個教育體系?
答:是的,AI已經從壹個遙遠的技術話題,變成了日常生活中不可忽視的現實存在。學生用它寫作業,老師再也不能像過去那樣輕松設計出“防作弊”的試題。這種轉變確實引發了許多根本性的問題,比如,“教育”的意義究竟是什麼?我們到底是在傳授知識,還是在教思考和判斷?如果未來的人們因為依賴AI而逐漸喪失了推理、學習、批判性思維的能力,我們的社會又會變成什麼樣子?
但這不僅是教育的問題,更是整個社會的問題。我們還需要進壹步追問:AI會對哪些職業和勞動形態產生沖擊?哪些人可能從中受益?哪些人將被邊緣化,甚至被系統性地剝奪話語權?而這些問題的核心,並不只是“AI是否強大”,而是“AI由誰開發”“為何而開發”“開發過程中誰被代表、誰被排除”。
很多公眾對於AI的認識仍停留在“智能增強工具”或“潛在的通用智能”的想象之中,但我們往往忽視了它已經在現實中造成的結構性影響
——比如強化平台權力、擴大社會不平等、加劇資源消耗等。而這些後果,恰恰源於當下主導AI開發的邏輯:不計代價地追逐規模和速度,忽視過程中的社會成本。
所以,當我們討論AI是否在改變教育、工作、社會秩序時,必須回到它所嵌入的政治經濟結構中去理解:我們需要什麼樣的AI,誰來決定這些技術的發展方向,它究竟是為了誰而服務?
問:這些問題的背後其實是壹些主導性的“故事”。你提到過,現在主導AI討論的兩種說法,壹種是“AI將帶我們走向烏托邦”,另壹種是“AI將毀滅我們”。你把這兩種立場分別稱為“技術樂觀派”和“末日論者”。能否具體說說它們的本質區別和共同點?
答:我稱他們為“技術樂觀派”(Boomers)和“末日論者”(Doomers),這是硅谷圈子裡也常用的術語。
表面看,這兩個陣營似乎意見對立,但它們其實有壹個共同點:都把AI描繪成極其強大的力量。
這就形成了壹個潛在的危險:無論是說AI將拯救世界,還是說它會毀滅人類,最終都會導向同壹個結論——這項技術太重要了,必須由少數人來掌控。而這些人,往往正是講“故事”的科技公司領導者,比如OpenAI首席執行官奧特曼。
我在書裡也揭示了這種“控制欲”:他們用通用人工智能(AGI
)這個概念來延續“再造人類智能”的夢想,制造出壹種神秘而宏大的未來願景。
而這套故事背後,是巨大的資源投入:數據、能源、計算能力,甚至勞動力。
問:說到資源,AI到底需要多少資源才能運行?我們日常使用這些工具時,背後消耗的是什麼?是不是有點像壹個“黑匣子”?
答:是的,我們今天看到的AI系統,大多基於壹種叫“深度學習”的技術。它使用“神經網絡”來處理和理解數據——這些網絡原本是受到人腦啟發設計的。
OpenAI最早做的事,就是把這種深度學習技術應用在極大規模的數據上。他們不是在壹個筆記本電腦上訓練模型,而是用上萬個芯片,組成超級計算機,全天候運行幾個月來訓練壹個模型。他們幾乎用了整個互聯網的英文內容,還有其他幾種語言的數據。
最近麥肯錫的壹份報告指出,如果照現在這種“無限擴大”的速度發展AI,伍年內,美國電力系統需要增加相當於2到6個加州全年電力消耗的容量,才能滿足AI的發展需要。
問:除了環境,還有壹個容易被忽視的問題是人力勞動。這些模型的構建其實並不是完全“自動化”的,對吧?
答:是的,AI的“智能”背後,其實是大量人工勞力在支撐
。舉例來說,為了讓模型不輸出仇恨言論、色情內容或暴力信息,AI企業需要雇傭成千上萬的合同工進行“內容審查”和“數據清洗”。他們反復觀看、標注、刪除有害內容——這是壹項高度重復、極具精神沖擊的工作。
在社交媒體早期階段,內容審核員就已經被證實會患上創傷後應激障礙(PTSD),AI領域同樣存在這種傷害。但不同的是,AI企業現在更加刻意地掩蓋這些“看不見的人工勞工”,因為他們想讓AI看起來就像“魔法”
。
問:這似乎是壹整套精心設計的故事。他們如何通過語言包裝這些現實?
答:完全正確。AI就是壹場講“故事”游戲,而這些故事極其精致、充滿誘導性。比如,他們會說數據儲存在“雲端”(the cloud),這個詞聽起來輕盈、透明、遙不可及。但現實是什麼?是地面上巨大的金屬機房,塞滿了服務器、高功耗芯片和冷卻系統。這根本不是“雲”,而是壹座座工業怪獸。
這種語言選擇並非偶然,而是為了讓人感覺AI很幹淨、很先進、不帶任何污染。而實際情況正好相反:它高度依賴能源、土地、水、人工,同時造成了真實世界的傷害。
問:我們再來說說學術界。很多人可能以為大學是研究AI影響的中立平台。但你在書中指出,學術界其實也受到了科技公司的深度影響,情況是否如此?
答:情況非常復雜。很多大學的AI研究中心,背後都有大科技公司的資金支持。比如,我剛剛在斯坦福大學以人為本人工智能研究所(Stanford HAI)做了壹場演講。這是壹家資金極為充裕的研究機構,其中大部分資金都來自科技企業。
這會產生壹個問題:即便學者本人還留在大學任教,他們也可能因為數據、資源、合作機會的獲取,而不得不和這些公司保持密切關系。長此以往,研究的獨立性被侵蝕,聲音趨於溫和,批評逐漸減少。很多學者本來希望從社會責任、倫理視角來審視AI,但在這種企業主導的學術環境中,他們也傾向於強調AI的“潛力”,而盡量回避它的負面後果。
這不僅影響學術研究的質量,也讓公眾更難獲取真實、全面的信息。
問:你還談到過政府在AI擴張中的角色,比如美國政府和科技巨頭之間的共生關系。你怎麼看待這種現象?
答:現在不僅硅谷的公司處於“帝國時代”,美國政府本身也進入了“帝國建設階段”。
它們互相利用:企業希望借助政府,把自己的技術擴展到全球;而美國政府則希望借助這些公司鞏固自己的地緣政治優勢。
比如,OpenAI最近推出了全球合作倡議“OpenAI for Countries”,意圖成為全球不同國家AI基礎設施的“底層供應商”——不僅是軟件,還包括硬件。為了推廣這個計劃,這家公司就需要美國政府出面牽線、達成合作。
問:你提到了“由下而上”的變革路徑。但在當前這種權力高度集中的AI時代,普通人真的能發出自己的聲音、產生影響嗎?
答:我相信是有可能的。在書中我也提過壹個真實案例:智利的壹群水資源維權者。他們居住在智利壹個資源緊張的小鎮,在全球權力體系中可以說處於最底層——他們生活在全球南方,在本國又屬於經濟邊緣群體。
但當谷歌計劃在當地建立數據中心、抽取淡水資源時,這些居民意識到:這些水原本就是屬於他們,谷歌無權以“投資”之名強行使用。他們組織起來,從地方社區抗爭升級為向谷歌智利公司施壓,最終直達谷歌總部,並促使智利政府官員親自出面調解。
問:這個案例確實很鼓舞人心。你覺得對美國民眾來說有什麼啟示?
答:這個故事尤其值得美國人深思。美國各地的地方政府常常為了吸引大公司,提供巨額稅收減免,允許建設數據中心、工廠或物流設施,美其名曰“推動發展”。但很多人沒有意識到:當數據中心建成後,用水量暴漲、電力負荷上升、住房價格上漲、學校與醫療資源短缺的問題就來了,而大公司卻未必會帶來足夠的高質量就業。所以我覺得,美國民眾也應該學習智利人的做法,質疑那些“經濟繁榮”的故事,看清它們背後實際的利益分配和由此產生的後果。
問:你在書中還提到另壹個城市,最初歡迎數據中心,後來卻徹底禁止它們了,能說說那是什麼事?
答:那是亞利桑那州的壹個城市。起初,當地政府非常歡迎蘋果、谷歌等公司建設數據中心,因為他們被承諾未來這些公司會在當地設立更多的辦公設施,提供優質的白領崗位,比如軟件工程師、研發人員等。
但現實是:這些承諾根本沒有兌現。數據中心建成了,卻沒有帶來高質量就業,也沒有刺激本地經濟復蘇。反而占用了大量土地和水資源,引發當地居民的抗議。最終,這座城市出台政策,完全禁止數據中心新建項目,成為全美極少數拒絕數據中心的城市之壹。
問:所以我們是否可以說——如果公眾不加警惕地接受這些AI故事,可能會在不知不覺中被剝奪權利,直到為時已晚?
答:是的,這也是我寫這本書的初衷之壹。AI的力量正在以前所未有的速度擴張,而公眾卻缺乏足夠的信息和工具去理解其影響。如果我們想“讓真相擁有力量”,首先就必須警覺、質疑、調查和發聲,而不能被那些“未來願景”或“技術樂觀主義”左右。
問:你對現在關注AI問題的公眾、學者和媒體工作者有什麼建議?
答:我的建議是,面對AI的發展,不要輕信表面故事
。每當有人說某項AI技術“可以提升效率”或“對社會有好處”時,我們都應該追問壹句:誰真正從中受益?誰又為此承擔代價?在AI帶來的種種影響中,那些受沖擊最大的人,往往卻最沒有話語權,比如基層社區、低薪勞工和全球南方國家,我們必須學會傾聽這些被忽視的聲音。同時,也要警惕簡單化的講故事方式,不要陷入“AI將帶來烏托邦”或“AI將毀滅世界”的非黑即白。現實遠比這復雜,我們需要保持開放、審慎、多元的視角,理解這項技術真正意味著什麼。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見