-
日期: 2025-05-14 | 來源: 華爾街日報 | 有0人參與評論 | 字體: 小 中 大
華爾街日報專欄作者Christopher Mims評論文章:研究人員正在開發新工具,以便能夠觀察AI模型的內部。研究結果讓許多人開始對這些模型接近通用人工智能的結論產生疑問。
人工智能領域的大佬——OpenAI、Anthropic、谷歌(Google)及其他公司的領導者——仍然自信滿滿地預測,人工智能很快就會變得跟人類壹樣聰明。但持反對意見的人越來越多,聲量也越來越大。他們說,人工智能壓根就不會像人類這樣思考。
這些研究人員的工作表明,今天的人工智能模型在底層架構上存在某種根本性限制。今天的人工智能之所以能夠模擬人類的智能,從本質上說是通過學習大量經驗法則來實現的,它們將這些法則有選擇地應用於遇到的所有信息。
而人類乃至動物則能夠以多種方式對世間萬事進行推理並預測未來。我們生物體會建立“世界模型”來理解事物如何運作,包括因果關系。
許多人工智能工程師聲稱,他們的模型也在龐大的人工神經元網絡內建立了這樣的世界模型,證據是這些模型能夠寫出明顯表現出推理能力的流暢文字。所謂“推理模型”的最新進展讓壹些觀察人士更加確信,ChatGPT和其他公司已經達到與人類相當的能力水平,這在業內被稱為AGI,也就是通用人工智能。
ChatGPT及其競品自問世以來,大多數時候都像是神秘的黑盒子。
我們不知道它們是如何生成結果的,因為我們對它們進行的是訓練而不是編程,構成這些模型人工“大腦”的大量參數以創造者捉摸不透的方式對信息和邏輯進行編碼。但研究人員正在開發新工具,以便能夠觀察這些模型的內部。研究結果讓許多人開始對這些模型接近通用人工智能的結論產生疑問。
“關於這些模型究竟在做什麼,還有用來描述它們的壹些擬人化語言,存在壹些爭議。”聖菲研究所(Santa Fe Institute)研究人工智能的教授梅蘭妮·米切爾(Melanie Mitchell)說。
聖菲研究所教授梅蘭妮·米切爾圖片來源:KATE JOYCE/SANTA FE INSTITUTE
“啟發式規則包”
探索大語言模型的新技術——屬於“機械可解釋性”這壹不斷發展的領域——能夠向研究人員展現這些人工智能如何進行數學運算、學習玩游戲或在環境中導航。米切爾在最近發表的壹系列文章中指出,越來越多的研究表明,可能的情況似乎是,模型會建立巨大的“啟發式規則包”,而不是創建效率更高的場景心智模型,然後通過推理來完成手頭的任務。(用平白的話來說,“啟發式”是指解決問題的捷徑。)
當哈佛大學(Harvard University)的人工智能研究者基恩·瓦法(Keyon Vafa)第壹次聽說“啟發式規則包”理論時,“我覺得它為我解鎖了壹些東西,”他說。“這正是我們試圖描述的東西。”- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見