-
日期: 2025-07-26 | 來源: DeepTech深科技 | 有0人參與評論 | 字體: 小 中 大
這樣壹來,語言其實就是壹種建模過程(搭積木的過程),可根據情況調整所需的詞匯(積木)。
最終,這就類似蛋白質組合成氨基酸,詞匯的組合會產生有意義的內容。
“其實人腦和神經網絡理解意思的方式相似,而且‘幻覺’並非大模型專屬,人類也會產生。”辛頓解釋道。
接下來,辛頓討論了人類與大模型的差異性。
計算機科學將軟件和硬件分開,軟件中的知識永恒存在,即便硬件毀滅,只要軟件在就能復活。
但人類不同,人腦是模擬的,神經元連接方式因人而異,知識傳播與硬件(大腦)緊密相關,無法像軟件知識那樣輕易轉移。人類的硬件壹旦毀滅,所有知識都會煙消雲散。所以人類靠學校、老師來傳承知識,但效率極低。
人腦知識難以高效轉移給他人,每秒最多傳遞約 10-100 比特信息。當然,人類的優勢在於生物計算能耗少,如人類大腦僅需 30 瓦特功率。
相比之下,神經網絡之間的知識共享就快多了,盡管能耗很大。
當大模型共享信息時,通過平均化權重,它們壹次交互就能分享大量比特的內容。比如在如今大模型的訓練中,每個模型都會部署多個副本,去分別學習不同的數據,然後所有副本再進行同步。
這就像人類學會了分身,同時去上不同的課程,然後只要聚在壹起,知識就在每個個體中同步完成了。
最後,辛頓討論了 AI 可能帶來的挑戰與潛在的應對方法。
幾乎所有人都相信,壹定會出現比人類更智能的 AI,而 AI 智能體為了完成任務,會想要生存、獲得更多控制。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見