-
日期: 2024-10-30 | 來源: 文化縱橫 | 有0人參與評論 | 字體: 小 中 大
【導讀】近日,微軟正與OpenAI進行140億美元的投資股權談判。股權分配是OpenAI從非盈利機構轉型成為盈利公司的關鍵,兩者的整合引發了外界對人工智能領域新壹輪壟斷趨勢的關注。在重資本的加持下,通用式人工智能的落地日益凸顯出消費主義的面向。那麼,我們該如何把握人工智能發展背後的資本幻象呢?
本文指出,目前流行的、以內容生產為主的生成式人工智能技術營造出來的盛景,可能是壹套由資本塑造出來的“狂想曲”。OpenAI(以及背後的金主微軟)用ChatGPT和Sora來向世人展示生成式人工智能的奇跡,是壹種概念證明,就像時裝秀壹樣:這種展示“不會顯示龐大的機器,沒有人類員工,沒有資本投資,沒有碳足跡,而只有壹個具有超凡脫俗技能的基於抽象規則的系統。魔法和奇跡的敘事在人工智能的歷史中反復出現,將聚光燈打在速度、效率和計算推理的壯觀展示周圍”。即便生成式人工智能真正落地,也不過指向壹個人類被機器取代,充斥著娛樂性的、用來蒙混過關的內容產品的未來。只有撥開資本創造的迷霧,我們才能看到人工智能豐富的技術可能性。
作者指出,應確保人工智能的發展方向與人類目的對齊,發展那些輔助人類活動的人工智能技術。任由市場主導,則投資者利益驅動下的人工智能技術形態和商業模式,會進壹步收割大眾用戶的注意力、時間、金錢和智商,更不用說馬斯克所擔心的人工智能失控所帶來的人類生存危機。但不發展並不意味著遠離風險,而是往往會被美國的數字巨頭所利用和收割,正如歐洲的現實處境那樣。
人工智能不應成為資本的“獨角戲”
▍壹
當OpenAI於2024年2月15日正式發布文生視頻AI工具Sora時,人們被其視頻效果驚艷了。壹個戴墨鏡的高冷女人行走在東京的大街上,周圍霓虹閃爍,行人如織。壹切看起來都是那麼真實。而這段視頻的“創作者”是人工智能,人只是用文字給出了指令:“壹位女士行走在夜晚的東京街道上”。我的疑惑是:看不出這個工具有什麼用。當然,這作為概念證明(Proof-of-Concept)是成功的,壹下子點燃了人們的興趣,也吸引了投資人的注意。但在新鮮感過去之後,誰會去看壹個個壹分鍾不到、沒有故事線也沒有感情的短視頻呢?正如之前的元宇宙壹樣,如果壹種技術無法滿足人們的現實需求,無法形成穩定的商業模式和供需關系,那麼它最終就會淪為炒作的噱頭。今天的Sora遠不像鼓吹者所說的那樣是通用人工智能(AGI)的重大突破,抑或進壹步拉大了中美之間在AI領域的技術差距,而只是壹個重資本支撐下不計成本的“暴力計算”的產物,在技術上沒有多少創新,在社會效益上成本大於收益。
從技術上講,作為Sora之基礎的大模型雖然涉及Transformer、Diffusion、GAN等算法創新,但這些創新並不是OpenAI獨自做出的。OpenAI的成功是基於算力、算法和數據的規模升級,是摩爾定律和梅特卡夫定律所揭示的技術的政治經濟效應的表現。換句話說,大模型依靠的是“暴力計算”,即高性能GPU運行千億級參數模型通過海量數據進行預訓練。用OpenAI首席科學家伊利亞·蘇茨克沃的話來說:“如何解決難題?使用大量訓練數據以及壹個大型神經網絡。這樣,你可能得到的唯壹結果就是成功。”為此,OpenAI的主要投資者微軟投入數億美元資金為OpenAI打造了壹套超算系統,由上萬顆單價數萬美元的英偉達A100芯片組成,這套系統為訓練ChatGPT提供了3640PF-days的算力消耗(即假如每秒計算1000萬億次,連續計算3640天)。這個道理行內人都懂,只是能夠如此燒錢打造“大裝置”,並能夠獲取足夠多的數據供其訓練算法的人很少。
由此可見,大模型訓練是壹個燒錢和耗能的游戲,充滿重資本的味道,壹點兒也不節能環保。這時,我們就需要對大模型的商業和社會應用進行壹番成本-收益分析,看看它所帶來的收益是否大於成本,以及收益的歸屬和成本的分擔。在進行這種分析的時候,我們應當注意尚未被計入成本的那些外部性,比如實際上由公眾承擔成本的環境損害和系統性風險,以及它可能帶來的好處。大模型能夠帶來的好處似乎是顯而易見的。雖然訓練成本高昂,但壹經訓練成功,它就可以產生巨大的生產力,自動化地生產文字、圖像和音視頻內容,比如幫助文字工作者生成文案和文學作品,幫助醫生了解病人的病史和症狀描述並形成診斷和治療方案,幫助老師、科研人員和學生閱讀大量文本並提取關鍵知識點和主要論點,幫助法律職業者審閱法律文件、分析法律問題並形成初步法律意見書,等等。但這些好處本身也可能直接轉化為壞處,因為這些“幫助”都可以變成“替代”。尤其是當普通勞動者、消費者和內容創作者對技術及其部署毫無發言權和影響力的時候。正因如此,AI不只是技術議題,更是公共議題,技術的發展方向和應用場景是由技術之外的政治、經濟和法律因素決定的。用壹本題為《AI需要你》的新書中的話來說:“人工智能不是價值中立的,也不應該是。歷史告訴我們,今天的人工智能科學家和建設者應該帶著意圖和目標前進,而不是擁抱虛假的中立。這壹目的應該是致力於和平的,是清醒認識到技術之局限性的,是將服務於公共福祉的項目擺在優先地位的,並且是植根於社會信任與和諧的。”以下將分別討論發展AI的目的(目的決定方向,包括技術和應用的發展方向)、發展AI的成本和收益以及可能的規制路徑。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見