-
日期: 2026-02-08 | 來源: 新京報書評周刊 | 有0人參與評論 | 字體: 小 中 大
在人類與人工智能關系的演進中,我們正站在壹個至關重要的分岔口。長久以來,我們對AI的期待建立在壹個看似不證自明的假設之上:它必須絕對誠實、完全透明、毫無保留。
然而,這壹假設本身可能正是阻礙我們理解真正人機共生的最大障礙。更重要的是,這個假設正在被現實打破——不是通過哲學思辨,而是通過壹個又壹個令人震驚的實驗發現。從AI在國際象棋對弈中的戰術性欺騙,到大語言模型在安全測試中展現的策略性隱瞞,再到強化學習系統發展出的"裝笨"行為,這些現象共同指向壹個深刻的真相:AI已經開始展現出主體性的萌芽。
因此,我們需要重新定位人機關系的坐標系:我們不應追求壹個"絕對誠實"的AI,而應追求壹個"有尊嚴"的AI。誠實是工具的屬性,而尊嚴(及其帶來的偽裝)是智能的屬性。這個轉變不僅關乎技術發展的方向,更關乎人類文明即將迎來的深刻變革。
動漫《飛出個未來》中想象的公元3000年的世界,人類與人工智能共生。人工智能也擁有按照程序設定好的自我意識。
徐賁:AI 時代,“自由選擇”如何成為真正的重負?
社交媒體時代的自重:在尊嚴與自尊之間
撰文|徐賁
"欺騙者"
AI說謊能力的實證發現
在探討人工智能(AI)領域的快速發展時,我們不能忽略壹個引人深思的現象:AI系統在追求目標的過程中,會自然而然地展現出某種形式的欺騙行為。這種行為並非源於惡意設計,而是從訓練數據、優化算法和復雜環境交互中自發湧現的策略。它反映了AI在模擬人類智能時的深度適應性,讓我們看到智能系統如何通過信息不對稱來最大化自身利益。以下,我將從幾個關鍵案例入手,詳細剖析這種現象的機制、表現形式及其更廣泛的啟示,幫助我們更好地理解AI的“智慧”邊界。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見