-
日期: 2025-08-23 | 來源: 瞭望智庫 | 有0人參與評論 | 字體: 小 中 大
當前,人工智能技術快速發展,但大模型“自說自話”、壹本正經“胡說八道”、生成偏離事實內容的問題日益凸顯,這壹現象被稱為“AI幻覺”。不少業內人士提醒,由於大模型主要基於概率生成文本而非邏輯推理,在短期內難以完全避免此類問題。
《瞭望》新聞周刊記者觀察到,AI虛構事實或邏輯混亂的“幻覺”已在法律、內容創作、專業咨詢等多個領域造成實際影響。
AI技術的發展方興未艾,但確保其生成內容的真實性和可靠性,尤其需要技術開發者、監管機構共同努力。針對“AI幻覺”問題,業界建議,在技術層面,要持續優化模型架構,增強事實核查能力;在監管層面,需完善相關規范,明確責任邊界。
1
幻覺頻現
“AI幻覺”已經成為當前AI技術發展中最突出的技術瓶頸之壹。從技術層面來看,AI幻覺的產生主要源於叁個方面的原因:首先是訓練數據的不足或偏差,導致模型對某些領域的認知存在缺陷;其次是算法架構的局限性,當前主流大模型主要基於概率預測而非邏輯推理;最後是訓練目標的設定問題,模型往往更傾向於生成“流暢”而非“准確”的內容。
“AI幻覺主要表現為事實性幻覺和邏輯性幻覺兩種。”業內人士介紹,事實性幻覺,表現為模型會編造完全不存在的事實或信息。這種情況在專業領域尤為突出,如在法律咨詢中虛構判例,在醫療診斷中給出錯誤結論,或杜撰歷史事件。邏輯性幻覺,表現為模型在長文本生成或連續對話中出現前後矛盾、邏輯混亂的情況,這主要是因為當前大模型的注意力機制在處理復雜語境時存在局限性。
多項研究證實了AI幻覺問題的嚴重性。今年3月,哥倫比亞大學數字新聞研究中心針對主流AI搜索工具進行的專項測試發現,這些工具在新聞引用方面的平均錯誤率達到60%。壹些研究顯示,AI並不擅長辨別“新聞事實來自哪裡”,會出現混淆信息來源、提供失效鏈接等問題。更令人擔憂的是,隨著模型規模的擴大,某些類型的幻覺問題不僅沒有改善,反而呈現加劇趨勢。
多位業內專家認為,AI幻覺問題在現有技術框架下難以徹底解決。思謀科技聯合創始人劉樞表示,當前的大模型架構決定了其本質上是壹個“黑箱”系統,優化結構等方式只能緩解模型幻覺問題,很難完全避免幻覺的產生。
有受訪者從認知科學的角度分析,當前的大模型處於“我不知道我知道什麼”的狀態,缺乏對自身知識邊界的准確判斷能力。這些技術特性決定了AI幻覺問題的存在,需通過多方面的技術改進來逐步緩解。
2
警惕風險
業界普遍認為,在AI幻覺短期內難以完全消除的背景下,其潛在風險已從信息領域蔓延至現實世界,可能帶來較大風險。
世界經濟論壇《2025年全球風險報告》已將“錯誤和虛假信息”列為全球伍大風險之壹,其中AI生成的幻覺內容被視作關鍵誘因之壹。
AI幻覺最直接的危害是造成“信息污染”。在法律領域,美國紐約南區聯邦法院在審理壹起航空事故訴訟時發現,原告律師提交的法律文書中引用了ChatGPT生成的6個虛假判例,這些虛構案例包括完整的案件名稱、案卷號及法官意見,甚至模仿了美國聯邦最高法院的判例風格,其虛構能力幹擾了司法程序。
金融咨詢領域,AI可能給出錯誤投資建議,如誤讀財報數據或虛構企業信息。
更令人擔憂的是,這些錯誤信息可能被其他AI系統吸收,形成“幻覺循環”——錯誤數據不斷被強化,最終污染整個信息生態。
隨著AI技術向實體設備領域滲透,幻覺問題的影響已超越虛擬范疇,可能對人身安全構成威脅。在自動駕駛領域,生成式AI被用於實時路況分析和決策制定。業內人士表示,在復雜路況中,自動駕駛若產生“感知幻覺”,可能導致系統誤判環境,觸發錯誤決策,直接威脅行車安全。
人形機器人領域風險更值得關注。優必選副總裁龐建新說:“當機器人因幻覺做出錯誤動作時,後果遠超文本錯誤。”例如,護理機器人可能誤解指令給患者錯誤用藥,工業機器人可能誤判操作參數造成生產事故。這些場景中,AI幻覺甚至可能威脅人身安全。
- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見