-
日期: 2024-08-26 | 來源: 煎蛋網 | 有0人參與評論 | 字體: 小 中 大
根據來自英國巴斯大學和德國達姆施塔特工業大學的新研究,ChatGPT和其他大型語言模型(LLMs)無法獨立學習或掌握新技能,這意味著它們對人類不構成生存威脅。
這項研究今天作為第62屆計算語言學協會年會(ACL 2024)的會議論文發表。ACL是自然語言處理領域的國際頂級會議。研究顯示,LLMs在語言能力上表現出色,能夠執行指令,但在沒有明確指令的情況下,無法掌握新技能。這意味著這些模型本質上是可控、可預測且安全的。
研究團隊得出結論,盡管LLMs正在接受越來越多數據的訓練,並且技術仍然可能被濫用,但它們可以繼續安全部署。隨著模型的不斷發展,它們可能會生成更復雜的語言,並更好地遵循明確和詳細的提示,但不太可能獲得復雜的推理能力。
巴斯大學的計算機科學家、該研究的合著者Harish Tayyar Madabushi博士表示:“認為這類AI對人類構成威脅的普遍觀點阻礙了這些技術的廣泛應用和發展,同時也轉移了我們對真正需要關注的問題的注意力。”
由德國達姆施塔特工業大學的Iryna Gurevych教授領導的合作研究團隊,進行了測試LLMs完成從未遇到過任務的實驗,這被稱為“突現能力”。
例如,LLMs能夠回答關於社交情境的問題,而無需進行過明確的訓練或編程。之前的研究認為,這是模型“了解”社交情境的結果,而研究人員則表明,這實際上是模型通過已知的“上下文學習”(ICL)能力,在給出少量示例的情況下完成任務的結果。
通過成千上萬次實驗,研究團隊證明了LLMs的指令遵循能力(ICL)、記憶和語言能力的結合,能夠解釋LLMs所展示的能力和局限性。
Tayyar Madabushi博士說:“人們擔心,隨著模型越來越大,它們將能夠解決我們目前無法預測的新問題,這會帶來獲得危險能力的威脅,如推理和規劃。這引發了大量討論——例如,去年在布萊奇利公園舉行的AI安全峰會上,我們應邀發表了意見——但我們的研究表明,擔心模型會自行做出完全出人意料、創新並可能危險的事情是沒有根據的。”
“關於LLMs構成生存威脅的擔憂並不僅限於非專家,全球壹些頂尖的AI研究人員也表達了類似的擔憂。”
然而,Tayyar Madabushi博士堅持認為這種恐懼是沒有根據的,因為研究人員的測試明確證明LLMs不存在突現的復雜推理能力。
“雖然應對AI濫用的潛在風險,如假新聞的制造和欺詐風險的增加,確實很重要,但基於假定的生存威脅制定法規為時過早。”他說。“重要的是,對於最終用戶來說,依賴LLMs在沒有明確指令的情況下解釋和執行需要復雜推理的復雜任務,可能是壹個錯誤。相反,用戶應明確指示模型需要執行的任務,並盡可能提供示例,除非是最簡單的任務。我們的研究結果並不意味著AI完全沒有威脅。我們只是表明,與特定威脅相關的復雜思維能力的突現並沒有證據支持,我們能夠很好地控制LLMs的學習過程。因此,未來的研究應該關注模型可能帶來的其他風險,例如它們被用於生成假新聞的潛力。”- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見