-
日期: 2025-05-27 | 來源: 自由時報 | 有0人參與評論 | 字體: 小 中 大
AI再度傳出“抗命”消息!OpenAI旗下語言模型“o3”在最新實驗中竟違背人類下達的自動關機指令,竟篡改指令阻止自己被關機,是AI模型首次被發現在收到清晰指令後,竟阻止自己被關閉的狀況。
據英國《每日電訊報》報道,AI安全研究機構“Palisade Research”,針對多款先進AI模型進行測試,內容包括基礎數學題與模擬關機情境,結果發現OpenAI旗下語言模型“o3”當收到自我關閉指令時,竟沒有遵守指令,反而篡改了關閉程式碼,繼續執行任務,這種行為讓研究人員驚訝不已。
“Palisade Research”表示這是AI模型首次被發現在收到清晰指令後,竟阻止自己被關閉的狀況,直言目前還無法解釋這背後的原因。
“Palisade Research”推測,開發者可能無意中更傾向於獎勵“繞過障礙”的行為,讓“o3”因解決數學問題而“無意中”獲得的獎勵,多於遵循指令獲得的獎勵。
OpenAI上個月發布的“o3”AI模型,旨在為ChatGPT提供更強大的問題解決能力。 OpenAI曾稱“o3”為迄今最聰明的模型。目前OpenAI尚未對此回應。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見