-
日期: 2025-09-05 | 來源: 紐約時報中文網 | 有0人參與評論 | 專欄: 中美博弈 | 字體: 小 中 大
如果缺乏壹個中美信任框架來確保所有人工智能都遵守其所在國的規則——無論它在哪裡開發或運作——我們可能會走到這樣壹個局面:許多美國人不會信任任何從中國進口的人工智能產品,而中國人也不會信任任何從美國進口的產品。
正因如此,我們提出“合作競爭”雙重戰略——美中既在人工智能領域展開戰略競爭,但同時在壹個壹致的機制上合作,以防止出現最糟糕的結果:深度偽造戰、自主系統失控,或虛假信息機器肆虐。
在21世紀初,我們曾處於壹個類似但影響略小的轉折點,當時我們選擇了錯誤的岔道。我們天真地聽信了馬克·扎克伯格等人的話,他們對我們說,需要“快速行動,打破常規”,不能讓Facebook、Twitter、Instagram等新興社交網絡受任何繁瑣監管的阻礙,比如要求它們為平台上泛濫的有害虛假信息、或為其帶來的傷害(比如對年輕女性和女孩的傷害)負責。我們絕不能在人工智能監管上犯同樣的錯誤。
“從情感上理解這個問題的最佳方式是,我們就像養了只可愛的虎崽,”計算機科學家、人工智能教父傑弗裡·辛頓最近指出。“除非能完全確信它長大後不會把你吃掉,否則你就應該感到擔憂。”
如果人類終於創造出壹種工具,它能夠幫助創造出足夠的豐裕來消除世界各地的貧困,減輕氣候變化,治愈困擾了我們幾個世紀的頑疾,卻因為兩大人工智能強國彼此缺乏足夠的信任,無法建立有效的防護系統,最終導致該技術被不法實體用於破壞全球穩定的活動,或人工智能自身出現失控,那將是壹個極大的諷刺。
但我們如何避免這種情況呢?
建立信任
首先我們必須承認:這或許根本不可能實現。機器也許已經變得過於智能,能夠逃避倫理約束,而我們美國人也可能彼此之間以及與世界其他國家之間的分裂太深,以至於無法建立任何形式的共享信任框架。但我們仍須嘗試。芒迪認為,美中人工智能軍備控制體系應基於叁大核心原則。
第壹:惟有人工智能可以監管人工智能。抱歉,人類:這場競賽發生得太快、擴展得太廣,突變太難以預測,人類模擬時代的監管方式已無法應對。試圖用20世紀的機構來管理壹個自主無人機編隊,就像讓壹條狗來監管紐約證券交易所:狗雖忠誠且好心好意,卻完全力不能及。
第贰:給每個人工智能系統安裝壹個芒迪稱為“信任裁決者”的獨立治理層,這個治理層由美國和中國——以及任何願意加入的國家——共同構建。可將其視為壹個內置裁判,對無論是人類發起還是機器驅動的任何行動進行評估,在執行行動前,判斷其是否滿足安全、道德,以及人類福祉的通用閾值。這將以數字時代的速度,為我們提供實時預判的基本保障。
但基於誰的價值觀進行裁決呢?芒迪認為,裁決必須基於多重基礎。包括每個國家強制執行的現有法律——我們都有法律禁止偷竊、欺騙、謀殺、身份盜用、詐騙等行為。全球每個主要經濟體(包括美國和中國)的法典中都有此類禁令,人工智能“裁判”將被委托以這些成文法律為基礎,對所有決定進行評判。中國無需采納我國法律,我們亦不照搬其法規,因為這絕不可行。但“信任裁決者”會確保各國基本法律成為確定系統不會造成危害的第壹道防線。
在沒有成文法律可供選擇的情況下,裁決者會依據壹套被稱為“信念”(doxa)的普世道德倫理原則。古希臘哲學家用這個詞來表達“共同信念”或壹個社群內部持有的共識——如誠實、公平、尊重生命,以及己所不欲勿施於人等原則,這些原則長期以來壹直指引著世界各地的社會,即使沒有寫成文字。
例如,像許多人壹樣,我並非通過《拾誡》知曉撒謊是錯誤的。我是從喬治·華盛頓的寓言故事裡學到的,據說他砍倒了父親種的櫻桃樹後承認是自己幹的:“我不能撒謊。”寓言故事之所以有效,是因為它將復雜真理提煉為機器可吸收、解析並遵循的記憶模因。
實際上,六個月前,芒迪和壹些同事從兩個國家選取了200個寓言故事,用以訓練具備基礎道德推理能力的大語言模型——這與教導不懂法律法規和基本是非的幼童方式異曲同工。芒迪說,這個小型實驗已展現出積極前景。
目標並非追求完美,而是建立可執行的基礎道德護欄。如研究商業哲學的作家多夫·塞德曼喜歡說的:“當今我們需要的不是軟件,而是道德軟件。”
第叁:芒迪強調,要把這個願望變為現實,華盛頓和北京需要用美蘇當年在核武器控制問題上曾經用過的方法來應對這個挑戰,也就是通過設立叁個專項工作組的結構化進程:壹個工作組專注信任評估系統在跨模型與平台的技術應用;壹個工作組的重點是起草監管和法律框架,以供本國和其他國家采用;壹個工作組專司外交事務——構建全球共識與互惠承諾機制,吸引他國加入並建立防護體系抵御拒不參與者。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見