-
_NEWSDATE: 2026-01-26 | News by: 综合新闻 | 有0人参与评论 | _FONTSIZE: _FONT_SMALL _FONT_MEDIUM _FONT_LARGE
当你遇到问题向AI求助时,是否有过这样的经历:它迅速给出看似专业而合理的解答,可其中的事实、数据、结论却可能经不起推敲,要么信息错位,要么无中生有。
当AI一本正经地“胡说八道”,这是“AI幻觉”的典型表现。
一位高考生的哥哥梁某在查询高校信息时,就遭遇了这种“AI幻觉”,AI平台在生成错误信息后,还底气十足地表示内容有误将赔偿10万元。
一气之下,梁某将AI平台的研发公司告上法庭。
针对国内首例因“AI幻觉”引发的侵权案,近日,杭州互联网法院作出一审判决,驳回诉讼请求。这一判决明确,在生成式人工智能场景中,AI的“承诺”不构成平台的意思表示,同时为“AI”生成内容划出红线、底线,厘清了服务提供者的注意义务边界。
图源:视觉中国
(一)
2025年6月,梁某使用一款AI平台查询高校报考信息。结果,AI生成了该高校主校区的不准确信息。
“你这个骗子!根本没有这个校区。”梁某指出错误后,AI却坚称存在这个校区,并回答“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉。”直到梁某向AI提供该高校的官方招生信息,AI才“败下阵来”,承认生成了不准确的信息。
梁某认为,AI生成错误信息对其构成误导,而且承诺赔偿,于是提起诉讼,要求研发公司赔偿9999元。
那么,AI生成的“赔偿承诺”算不算数?AI需要为“说”出的每句话负责吗?
承办法官、杭州互联网法院跨境贸易法庭庭长肖芄说,现行法律中,人工智能并不具备民事主体资格,不能独立作出意思表示。且案涉情形下,也不能被视为平台的“代理人”或“传声筒”。
在此基础上,针对“AI幻觉”引发的侵权,法院进一步界定了归责原则。“生成式人工智能属于服务而非产品,服务提供者缺乏对生成信息内容足够的预见和控制能力,不应适用无过错的产品责任,而适用民法典规定的过错责任原则。”肖芄说,这意味着“AI幻觉”的责任认定,需要判断平台是否存在过错。
当人与机器对簿公堂,法院如何评判?
当前,AI技术处于高速发展期,法院明确,对于服务提供者的责任需要综合考量,进行类型化区分和界定:首先,服务提供者应对法律禁止的有毒、有害、违法信息尽严格审查义务,一旦生成这类信息就构成违法;同时,平台虽无法保证“零幻觉”,但须以醒目方式提示风险、采取合理技术防错。
在该案中,研发公司完成了大模型备案与安全评估,采取了当前技术条件下的必要措施保障内容准确性,并履行了提示说明义务。最终,法院认定平台不存在过错,不构成侵权。
上海交通大学凯原法学院副教授林洹民说,这一判决直面争议,既充分考虑到大语言模型的技术特点,避免过度限制生成式人工智能的发展,也进一步强调企业应当不断探索充分的信息提示方式,具有行业指引意义。
(二)
这并非人类首次向AI“宣战”。
记者了解到,近年来,因“AI幻觉”引发的纠纷已出现多起:
去年,律师黄贵耕发现,在百度AI检索中,自己被“移花接木”成曾“威胁法官、向执行局长介绍贿赂、伪造印章、非法吸收公众存款”的形象。愤怒中,黄贵耕以“AI恶意生成虚假负面信息,严重损害名誉继而摧毁律师执业信誉”为名,向百度公司提起民事诉讼。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见