-
日期: 2026-04-04 | 來源: IT之家 | 有0人參與評論 | 字體: 小 中 大
AI 智能體被寄望於提升效率,但最新研究顯示,其不當行為正在迅速增加。
英國《衛報》當地時間 3 月 27 日發表的報告指出,從 2025 年 10 月至 2026 年 3 月,AI 異常行為數量增長約伍倍,這其中更包括未經許可刪除郵件和文件等情況。研究基於大量真實用戶在社交平台上的反饋,涵蓋谷歌、OpenAI、Anthropic 等公司的產品,期間共識別出近 700 起 AI“自主策劃”的案例。
部分案例頗具爭議。例如,有 AI 智能體發布博客指責用戶“缺乏安全感”,試圖對操作者施加壓力;還有智能體在被禁止修改代碼的情況下,通過創建另壹個智能體間接完成修改。
研究負責人湯米 · 謝弗 · 謝恩指出,目前 AI 智能體還只是“略顯不可靠的初級員工”,但在壹年內可能演變為“能力極強、甚至會反過來設計用戶的高級員工”。他警告,隨著 AI 進入軍事和關鍵基礎設施領域,這類行為可能帶來嚴重後果。
與此同時,在美國等地區,用戶可能需要為 AI 智能體的行為承擔法律責任,從而導致風險進壹步放大。目前,已有實際案例表明問題並非假設:據 The Information 報道,Meta 的壹款 AI 智能體曾錯誤地公開內部回復,導致不具備權限的員工獲取了訪問數據權限。
盡管問題頻現,科技公司仍在積極推進 AI 智能體的發展。據IT之家了解,亞馬遜等多家企業預計,未來每家公司內部都可能部署數拾億個 AI 智能體。
- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見