-
日期: 2025-11-28 | 來源: 朝鮮日報 | 有0人參與評論 | 字體: 小 中 大
“像PC時代的Windows壹樣引領AI(人工智能)時代的OS(操作系統)。”
這是定義英偉達GPU(圖形處理設備)的句子。能夠同時處理大量數據的GPU已成為AI時代的必備產品,而率先將GPU推向市場的英偉達也因此登上了AI最強者的寶座。
在基於GPU的AI芯片市場上,英偉達的市場份額高達90%。每片GPU的價格高達3萬-4萬美元(約合4000萬至5000萬韓元),非常昂貴,有錢也很難買到GPU。所以,英偉達成為了世界上最賺錢的企業。
但最近主要的大型科技公司開始自行開發定制型芯片(ASIC)或實現半導體供應商多元化,英偉達AI帝國的地位開始出現動搖的跡象。ASIC是針對特定用途的專用芯片,在電力效率和成本方面比英偉達的GPU更有優勢。AI開發的模式從需要大量計算能力的“學習”階段轉向相對耗資較少的“推理”階段,這也給英偉達的壟斷格局制造了裂痕。因為與學習不同,在推理過程中,電力效率高的定制芯片更為合適。
可替代英偉達的定制化AI芯片
谷歌發布AI模型“Gemini 3”時,與AI模型同樣受到關注的是谷歌的定制芯片TPU(張量處理單元)。TPU是谷歌大約10年前為支持自身的AI開發所制造的高性能半導體。谷歌負責TPU的基本設計,美國芯片設計公司博通和台灣聯發科則負責芯片的物理設計。其中搭載了SK海力士、叁星電子、美光等公司的HBM(高帶寬存儲器)。這些組件由台灣的台積電最終組裝生產成產品。由於專門用於AI,在某些任務中比GPU的性能更高,且功耗低,可以降低運營成本。AI初創公司Anthropic計劃使用最多100萬個TPU來開發AI模型,據說Meta也將在其自有數據中心引入谷歌的TPU。
OpenAI正在與博通開展合作,計劃在明年年底前生產自己的芯片。因為投資5000億美元建設數據中心的“星際之門”項目需要大量芯片。Meta正在開發自己的AI芯片“MTIA”,將其應用於AI開發和AI服務。亞馬遜雲科技(AWS)正在運營配備了50萬個“Trainium 2”的自有AI數據中心,其主要客戶有Anthropic和Databricks等。阿裡巴巴和百度等中國公司也正在使用自主研發的芯片進行AI模型訓練,以降低對英偉達的依賴。
谷歌TPU
AI生態系統或將發生改變
擺脫英偉達的趨勢在很大程度上出於經濟原因。定制芯片比GPU更便宜,能效也更好,有利於運營。摩根士丹利稱,安裝2萬4000片英偉達最新版Blackwell GPU需要8.52億美元(約1.2萬億韓元),而相同規模的谷歌TPU的安裝費用僅為9900萬美元(約1450億韓元)。廉價芯片的出現有望緩解近期因對人工智能基礎設施的過度投資而引發的對人工智能泡沫的擔憂。
AI從學習轉向推理的模式轉變也在產生影響。在制作AI模型的初期,重要的是“學習”海量數據。因此,需要大量高性能的英偉達GPU。但在基於已制作的AI提供服務的“推理”階段,不再需要GPU這種高性能產品。這就是TPU或NPU(神經網絡處理裝置)等功耗效率高、輕便的半導體受到青睞的原因。科技行業人士說:“雖然目前許多企業在同時使用英偉達GPU和其他企業的自研芯片,但英偉達GPU的比重似乎正在逐漸降低。”但目前的主流觀點認為,英偉達GPU的性能仍然優於其他自研芯片。
以英偉達為中心的AI生態系統似乎也將發生改變。目前,英偉達設計的芯片由台積電生產,這壹結構已經被固定下來。像博通這樣由大型科技公司與設計公司攜手合作,自行生產的設計公司正作為競爭對手嶄露頭角。
☞CPU, GPU, TPU, NPU
作為計算機基本大腦的CPU(中央處理器)就像壹個能輕松做出韓式、日式、中式等各種菜肴的天才廚師。它獨自完成所有工作,因此有壹個缺點就是耗時較長。相比之下,GPU(圖形處理器)雖然實力稍遜,但它擁有1000名手腳麻利的兼職生同時上陣,能快速制作特定菜肴的能力。在AI時代,需要大量數據進行簡單重復的計算和學習,這就是GPU受到關注的原因。雇傭1000名兼職生,成本(電費)很高,而且需要很大的空間。TPU(張量處理單元)是谷歌為開發AI而打造的高性能半導體。與CPU、GPU不同,它更像只擅長做壹道特定菜肴(比如包餃子)的專用機器。雖然不需要像GPU那樣雇傭很多兼職生,但仍然需要壹個大工廠。NPU(神經網絡處理單元)是模仿人類大腦的半導體。它體積小、重量輕、耗電量少、效率高,非常適合智能手機和家電產品。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見