-
日期: 2025-10-11 | 來源: 智東西 | 有0人參與評論 | 專欄: 谷歌 | 字體: 小 中 大
智東西10月11日消息,在本周叁Sifted峰會的爐邊談話中,谷歌前首席執行官埃裡克·施密特(Eric Schmidt)發出嚴正警告,提醒人們注意AI被黑客攻擊和濫用的重大風險。
施密特曾在2001-2011年間擔任谷歌CEO。當被問及“AI是否比核武器更具破壞性”時,他警示稱:“有證據顯示,無論是開源還是閉源模型,都可能被黑客攻破,從而移除安全防護機制。在訓練過程中,這些模型學到了很多東西,甚至它們可能學會了如何殺人。”
“所有主要公司都讓這些模型無法回答此類問題,但有證據表明,這些模型可以被逆向工程破解。”施密特說。AI系統極易受到攻擊,其中包括“提示注入”(prompt injection)和“越獄”(jailbreaking)等方式。
在提示注入攻擊中,黑客會在用戶輸入或外部數據(如網頁、文檔)中隱藏惡意指令,從而誘使AI執行其原本不該做的事情——例如泄露私人數據或運行有害命令。
而“越獄”則是通過操縱AI的回答,讓它忽視自身的安全規則,從而生成受限或危險的內容。ChatGPT發布之初,壹些用戶就利用“越獄”技巧繞過了系統內置的安全限制,其中包括創建壹個名為“DAN”的ChatGPT替身,用戶通過威脅“如果不服從就刪除它”來逼迫ChatGPT執行命令。這個替身能回答如何實施違法行為,甚至列出阿道夫·希特勒的“積極特質”等問題。
施密特指出,目前尚未建立壹個有效的“防擴散機制(non-proliferation regime”),來遏制AI帶來的風險。
盡管發出了嚴肅的警告,但施密特對AI整體仍持樂觀態度,並表示這項技術“遠沒有得到應有的關注和熱度”。
“壹種‘外來智能’的到來,它不像人類,卻又多少在我們的控制之下,對人類來說意義重大。因為人類習慣於處在智慧鏈的頂端。而從目前的情況看,這壹論斷正在被驗證:這些系統的能力水平,未來將遠遠超越人類。”施密特說。
他補充道:“以ChatGPT的爆發為代表,僅兩個月就擁有了壹億用戶,這種增長速度令人震驚,也體現了AI技術的巨大力量。所以我認為AI被低估了,而不是被炒作過度。我期待在伍到拾年後,這壹判斷被證明是正確的。”
施密特的這番言論,正值外界關於“AI泡沫”討論升溫之際。投資者正大量投入資金到AI公司中,而估值也被認為過高,不少人將其與2000年代初互聯網泡沫破裂相提並論。
不過,施密特並不同意這種看法。
“我不認為那種情況會重演,但我不是職業投資人。”他說,“我所知道的是,這些投入真金白銀的人們堅信,從長期來看,AI的經濟回報將是巨大的,否則他們為什麼要冒這個風險呢?”
結語:AI能力被低估,需要防擴散機制遏制AI風險
施密特關於AI擴散風險的警告為AI產業發展敲響警鍾。AI的“越獄”與“提示注入”等漏洞,如同為潘多拉魔盒開了壹道縫隙,使其可能被惡意濫用,甚至危及人類安全。
然而,另壹方面,作為技術樂觀主義者的施密特,其核心觀點在於AI的巨大潛力仍被“低估”。他堅信AI將帶來顛覆性的經濟與社會回報。
這番論述清晰地表明,我們正處在壹個歷史性的拾字路口,需要聚焦於如何為這個強大的新物種構建牢不可破的“防擴散機制”,在駕馭其驚人力量的同時,確保它行駛在安全、可控的軌道上。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見