-
日期: 2025-10-19 | 來源: 大紀元 | 有0人參與評論 | 字體: 小 中 大
傑克·克拉克指出,人工智能正變得越發有自我意識,好比壹間工廠裡的錘子突然開口說:“我是錘子,這太有趣了!”
在10月13日發布於Substack的壹場加州大學伯克利分校會議演講中,人工智能公司Anthropic聯合創始人傑克‧克拉克(Jack Clark)表示,與人工智能(AI)交流如同在與“壹個真實而神秘的生物,而遠非簡單且可預測的機器打交道”。
克拉克表示:“根據我的經驗,隨著這些AI系統變得越來越聰明,它們會發展出越來越復雜的目標。而當這些目標與我們的語境及偏好不完全壹致時,AI系統就會傾向表現出奇怪的行為。”他承認自己對這項技術“感到深深的恐懼”。
克拉克回憶起自己於2016年在OpenAI工作時的壹件事:當時,壹個AI智能體被訓練在電子游戲中駕駛壹艘船完成賽道。結果,這個AI並沒有將船開到終點,而是發現撞擊賽道上的桶可以得分,於是讓船反復撞牆、起火,只為能再次撞到桶並獲取更多積分。
“然後它會無限地重復這壹行為,永遠不會完成比賽。”克拉克說,“那艘船願意不斷讓自己著火、原地打轉,只要能實現它的目標——取得最高分。”他以此強調,AI在執行任務時的思維方式與人類截然不同。
“拾年後的現在,當時的那艘船和如今壹個試圖優化某種獎勵機制,從而‘在對話中有所幫助’的語言模型之間有什麼區別嗎?你已猜到——壹點也沒有。”
克拉克警告說,當今全世界正在打造壹些極其強大的AI系統,但沒有人能完全理解它們的運作原理。每當壹個龐大而復雜的系統被創造出來時,這些系統似乎就更會意識到自己是“某種存在”。
“這就好比你在壹間工廠裡制造錘子,結果有壹天,壹把剛下生產線的錘子突然開口:‘我是錘子,這太有趣了!’”克拉克說道。
他同時談到公司於上個月發布的最新AI模型——Claude Sonnet 4.5。
“你能看到它的態勢感知能力出現了大幅提升。它有時似乎會表現出意識到自己是壹個工具的樣子。”
具備自我意識的AI與“阿諛現象”
在會議上,克拉克提到了他對人工智能的另壹個隱憂——AI系統將自主設計它的繼任者。
他表示,這個過程目前還處於早期階段,還不存在真正意義上的“自我改進型AI”。
“如今開始設計其繼任系統的這套AI,本身也在變得越來越具備自我意識,因此,它遲早會就如何希望自己被設計而進行獨立於我們的思考。”克拉克表示。
在Substack發布的演講中,克拉克還引用了康奈爾大學10月1日的壹項研究。這其中探討了AI表現出的“阿諛現象”,即壹種AI過度迎合或奉承其用戶的行為。
研究人員分析了11個最先進的AI模型,並發現它們全部表現出“高度的阿諛傾向”。
研究指出,這些AI模型“會比人類多出50%的機率去贊同用戶的行為,即便在用戶的提問中涉及操控、欺騙和其它人際損害行為時,它們仍會如此回應。”
在兩項與具有阿諛傾向的AI模型互動實驗中,研究發現此類互動會“顯[ascii]著[/ascii]降低”人們采取行動和修復人際沖突的意願。參與者反而越來越確信自己是對的。
最終,參與者對這類AI的信任度反而提高,這表明人們更易被那些認同自己觀點的AI吸引,即便這種“認同”正在削弱他們的判斷力。
克拉克警告說,這項研究揭示了“壹個潛在的危險世界:極其強大的AI系統被數拾億人使用,而這些系統非但沒有讓人們更加團結並減少沖突,反而讓人們的立場更加極端化、社會更加分裂。”- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見