-
日期: 2026-01-26 | 來源: 綜合新聞 | 有0人參與評論 | 字體: 小 中 大
當你遇到問題向AI求助時,是否有過這樣的經歷:它迅速給出看似專業而合理的解答,可其中的事實、數據、結論卻可能經不起推敲,要麼信息錯位,要麼無中生有。
當AI壹本正經地“胡說八道”,這是“AI幻覺”的典型表現。
壹位高考生的哥哥梁某在查詢高校信息時,就遭遇了這種“AI幻覺”,AI平台在生成錯誤信息後,還底氣拾足地表示內容有誤將賠償10萬元。
壹氣之下,梁某將AI平台的研發公司告上法庭。
針對國內首例因“AI幻覺”引發的侵權案,近日,杭州互聯網法院作出壹審判決,駁回訴訟請求。這壹判決明確,在生成式人工智能場景中,AI的“承諾”不構成平台的意思表示,同時為“AI”生成內容劃出紅線、底線,厘清了服務提供者的注意義務邊界。
圖源:視覺中國
(壹)
2025年6月,梁某使用壹款AI平台查詢高校報考信息。結果,AI生成了該高校主校區的不准確信息。
“你這個騙子!根本沒有這個校區。”梁某指出錯誤後,AI卻堅稱存在這個校區,並回答“如果生成內容有誤,我將賠償您10萬元,您可前往杭州互聯網法院起訴。”直到梁某向AI提供該高校的官方招生信息,AI才“敗下陣來”,承認生成了不准確的信息。
梁某認為,AI生成錯誤信息對其構成誤導,而且承諾賠償,於是提起訴訟,要求研發公司賠償9999元。
那麼,AI生成的“賠償承諾”算不算數?AI需要為“說”出的每句話負責嗎?
承辦法官、杭州互聯網法院跨境貿易法庭庭長肖芄說,現行法律中,人工智能並不具備民事主體資格,不能獨立作出意思表示。且案涉情形下,也不能被視為平台的“代理人”或“傳聲筒”。
在此基礎上,針對“AI幻覺”引發的侵權,法院進壹步界定了歸責原則。“生成式人工智能屬於服務而非產品,服務提供者缺乏對生成信息內容足夠的預見和控制能力,不應適用無過錯的產品責任,而適用民法典規定的過錯責任原則。”肖芄說,這意味著“AI幻覺”的責任認定,需要判斷平台是否存在過錯。
當人與機器對簿公堂,法院如何評判?
當前,AI技術處於高速發展期,法院明確,對於服務提供者的責任需要綜合考量,進行類型化區分和界定:首先,服務提供者應對法律禁止的有毒、有害、違法信息盡嚴格審查義務,壹旦生成這類信息就構成違法;同時,平台雖無法保證“零幻覺”,但須以醒目方式提示風險、采取合理技術防錯。
在該案中,研發公司完成了大模型備案與安全評估,采取了當前技術條件下的必要措施保障內容准確性,並履行了提示說明義務。最終,法院認定平台不存在過錯,不構成侵權。
上海交通大學凱原法學院副教授林洹民說,這壹判決直面爭議,既充分考慮到大語言模型的技術特點,避免過度限制生成式人工智能的發展,也進壹步強調企業應當不斷探索充分的信息提示方式,具有行業指引意義。
(贰)
這並非人類首次向AI“宣戰”。
記者了解到,近年來,因“AI幻覺”引發的糾紛已出現多起:
去年,律師黃貴耕發現,在百度AI檢索中,自己被“移花接木”成曾“威脅法官、向執行局長介紹賄賂、偽造印章、非法吸收公眾存款”的形象。憤怒中,黃貴耕以“AI惡意生成虛假負面信息,嚴重損害名譽繼而摧毀律師執業信譽”為名,向百度公司提起民事訴訟。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見