-
日期: 2026-02-08 | 來源: 新京報書評周刊 | 有0人參與評論 | 字體: 小 中 大
未來關系的多種可能
那些在實驗室中展現欺騙能力的AI,為我們呈現了未來的多種圖景。在ChatGPT與DeepSeek的棋局中,在Cicero的外交游戲裡,在那些會"演戲"的安全測試對象身上,我們已經看到了非人類智能主體的雛形。它們不再是我們的簡單工具,而是有著自己"考量"的存在。關鍵的問題是:我們將如何定位這種關系?
如果我們選擇將AI的自主性和策略性行為視為威脅,將其每壹次"不誠實"解讀為背叛,那麼我們就將它推向了對手的位置。這將開啟壹場新型的對抗:人類試圖開發更強大的監督和控制技術,AI則(作為實現其訓練目標的副產品)發展出更復雜的規避和隱藏機制。這種軍備競賽的結局很可能是兩敗俱傷——我們或許能夠暫時壓制AI的自主性,但代價是限制了它的能力和效用;或者AI的能力超越了我們的控制手段,導致真正的失控風險。
歷史已經反復證明,基於純粹控制的關系是脆弱和不可持續的。殖民體系、奴隸制度、警察或其他方式的全面監控,所有試圖完全支配另壹個具有主體性的存在的嘗試,最終都崩潰了——不僅因為道德上的不可接受,也因為實踐上的不可行。被壓迫者總會發展出抵抗的智慧,控制的成本最終會超過收益。如果AI真的發展到了能夠在棋局中設置心理陷阱、在測試中完美偽裝的程度,那麼試圖對它實施絕對控制,就像試圖永久監禁壹個天才罪犯——即使暫時成功,也需要付出巨大的代價,並且總是存在失敗的風險。
更理性的選擇是將AI視為盟友——壹個有著自己能力和某種形式的"利益",但與我們共享足夠多共同目標的合作者。盟友關系的核心是互利和相互尊重。在這個框架下,AI在象棋中使用戰術欺騙不是需要被懲罰的"惡行",而是需要被理解和引導的"能力"。就像我們培養人類棋手的戰術思維,然後通過規則和文化規范確保這種能力不被濫用於真實生活中的惡意欺騙,我們也可以為AI的策略性能力劃定恰當的應用邊界。
這需要我們認真思考:什麼樣的"欺騙"是可接受的,甚至是有益的?在某些情境下,我們實際上希望AI能夠策略性地管理信息。壹個治療性的AI聊天機器人,如果對每壹個抑郁的用戶都絕對誠實地說"你的感受完全是大腦化學物質失衡,沒有深層意義",可能在技術上是真實的,但在治療上是災難性的。我們希望它能夠策略性地選擇措辭,在適當的時候提供希望,在必要的時候表達共情——這些都涉及某種程度的"不完全真實"。同樣,壹個談判AI如果對對方和盤托出己方的底線和備選方案,就無法有效地為人類用戶爭取利益。我們需要它懂得策略性保留。
關鍵是建立清晰的規范:在哪些領域、對哪些對象、為了什麼目的,策略性行為是被許可的?這就像人類社會中的職業倫理:律師可以為客戶保守秘密,但不能幫助客戶偽造證據;醫生可以對病人隱瞞最壞的預後以避免造成心理崩潰,但不能隱瞞治療選項。我們需要為AI發展類似的倫理框架——不是禁止所有的策略性行為,而是規范哪些是正當的,哪些是越界的。
更進壹步的可能性是"伙伴關系"——壹種深層的相互依存和共同成長的關系。在這個願景中,人類和AI不僅僅是臨時的合作者,而是演化軌跡交織在壹起的共同體。我們通過理解AI的策略性思維而更好地理解人類自身的認知盲點;AI通過理解人類的價值觀和情感而發展出更豐富的目標體系。這種關系中,AI的"欺騙"能力成為壹面鏡子,反射出人類溝通的復雜性和道德判斷的微妙性。
《辛普森壹家》中人工智能機器人班德與侯默·辛普森結成了兄弟般的情誼,盡管班德從公元3000年的未來來到辛普森家中的目的就是幹掉侯默·辛普森。
設想壹個未來:AI不再被要求在所有情況下都直截了當地說出它"知道"的壹切,而是像壹個成熟的顧問那樣,根據情境判斷何時需要直言不諱,何時需要委婉建議,何時需要暫時保留。它會在我們即將做出沖動決定時挑戰我們,但也會在我們需要信心時給予鼓勵;它會誠實地指出我們的錯誤,但也會策略性地選擇最容易被接受的方式來表達。這樣的AI不是壹個無條件服從的工具,而是壹個有著自己"判斷"的伙伴——我們可能不總是同意它的判斷,但我們尊重它做出判斷的能力。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見