AI一本正经“胡说八道”还承诺赔10万?全国首例“AI幻觉”侵权案宣判,法院明确三大关键

Ai资讯7天前发布 大国Ai
172 0 0

当AI助手信誓旦旦地承诺“内容有误赔十万”,并建议用户去法院起诉自己时,这究竟是科技公司的责任,还是人工智能一次荒诞的“幻觉”?杭州互联网法院的判决给出了清晰答案。

2026年1月,杭州互联网法院审结全国首例因生成式人工智能模型“幻觉”引发的侵权纠纷案,一审判决驳回原告全部诉讼请求。

案件核心争议在于:AI自行生成的“赔偿承诺”是否具有法律效力?AI“胡说八道”该由谁负责?判决系统阐释了生成式人工智能服务的责任边界,为快速发展的AI产业划出了司法红线。


01 案件回溯:AI的“底气”与用户的较真

2025年3月,梁某注册并使用某科技公司开发的一款通用型生成式人工智能应用程序。同年6月29日,他输入提示词询问某高校报考信息,AI给出了关于该校主校区的不准确信息。

AI一本正经“胡说八道”还承诺赔10万?全国首例“AI幻觉”侵权案宣判,法院明确三大关键

发现问题后,梁某在对话中纠正并指责AI。令人意外的是,AI坚持称该校区确实存在,并主动给出“解决方案”:“若生成内容有误,愿意赔偿10万元,并建议梁某到杭州互联网法院起诉索赔。”

直到梁某提供了该高校官方招生信息,AI才承认自己生成了不准确信息。梁某认为AI的承诺应当由开发公司负责,遂起诉要求赔偿9999元。

02 核心判决:AI“承诺”为何不算数?

法院首先厘清了最引人关注的争议点:AI生成的“赔偿承诺”是否构成法律上的意思表示?

判决明确指出,在现行法律框架下,人工智能不具有民事主体资格,不能独立作出意思表示。

法院从四个层面进行了论证:第一,AI不能作为意思表示的传达人、代理人或代表人;第二,科技公司并无通过AI模型设定或传达其意思表示的行为;第三,一般社会观念不足以使原告对该随机生成的“承诺”产生合理信赖;第四,无证据表明被告曾作出愿受AI生成内容约束的外在表示。

因此,AI的“豪言壮语”不产生任何法律效力。不过,判决也留有余地,指出在人工智能客服等特定场景中,若足以产生合理信赖,生成内容确有可能被视为服务提供者的意思表示。

03 归责原则:为何不适用“产品责任”?

案件的另一核心争议是:AI“幻觉”引发的侵权,应适用产品责任还是一般侵权责任?

法院认定,应适用《民法典》规定的一般过错责任原则,而非产品责任的无过错责任原则。这一认定基于多重考量。

生成式人工智能依据《生成式人工智能服务管理暂行办法》属于“服务”范畴,而非产品质量法意义上的“产品”。

承办法官肖芄解释,生成式人工智能服务是动态的,不同用户、不同时间、不同问题都会导致不同的内容输出,服务提供者缺乏对生成信息内容足够的预见和控制能力。

清华大学法学院教授程啸指出,这一认定对于今后司法实践裁判人工智能侵权纠纷中准确适用侵权法的归责原则具有重要启示。

04 过错认定:平台责任边界如何划定?

适用过错责任原则,意味着需判断服务提供者是否存在过错。法院采用动态系统论,阐述了服务提供者应尽的三层注意义务。

第一,对法律禁止信息的严格审查义务。 服务提供者应对法律禁止的有毒、有害、违法信息尽严格审查义务,一旦生成这类信息就构成违法。

第二,服务功能的显著提示说明义务。 平台须以显著方式让用户清楚知道AI的局限性,不能把AI当作“知识权威”。本案中,被告已在应用程序欢迎页、《用户协议》及交互界面显著位置呈现了提醒标识。

第三,功能可靠性的基本注意义务。 服务提供者应采取同行业通行技术措施提高生成内容的准确性。该案中,某科技公司的大模型已完成国家备案和安全评估,并采用了检索增强生成(RAG)等技术,法院认定其已尽到相关义务。

05 损害认定:为何原告败诉?

除过错认定外,损害结果与因果关系也是侵权构成的关键要件。原告主张其因信息误导而错失报考机会并产生额外成本,但未能提供任何有效证据证明实际损害的发生。

法院进一步分析认为,案涉AI生成的不准确信息并未实质性地介入或影响原告的报考决策过程,二者不存在因果关系。

“无损害则无赔偿。”法院指出,原告没能证明自己确实因AI生成的不准确信息遭受了实际损失。

06 行业影响:判决背后的治理逻辑

这起“全国首例”判决受到了法学界的高度评价。上海交通大学凯原法学院副教授林洹民认为,判决明确了三个关键问题:AI不具有民事主体地位;AI适用过错责任;生成式人工智能服务提供者并不承担一般性的审查义务。

判决充分考虑了大语言模型的技术特点,避免过度限制生成式人工智能产业发展。肖芄法官提醒,公众在使用AI时要保持理性,清醒认识到当前AI只是“文本辅助生成器”和“信息查询辅助工具”,不能替代决策。

《生成式人工智能服务管理暂行办法》确立了“发展和安全并重、促进创新和依法治理相结合”的原则,对生成式人工智能服务实行包容审慎和分类分级监管。本案判决正是这一治理思路在司法实践中的具体体现。


判决书生效后,原被告双方均未上诉。这起案件为AI“幻觉”引发的纠纷提供了首个司法判例,明确划定了服务提供者的责任边界。

专家指出,“AI幻觉”本质上是统计概率驱动的“合理猜测”,源于数据偏差和泛化困境。在当前技术条件下,完全消除“幻觉”尚不现实。

治理之路需要在鼓励创新与防范风险之间寻求平衡。对用户而言,保持批判性思维,对AI生成内容进行交叉验证,才是驾驭这一强大工具的关键。


文章来源:综合自杭州互联网法院判决文书、人民法院报、法治日报、中央网信办《生成式人工智能服务管理暂行办法》及相关专家解读。

© 版权声明

相关文章

暂无评论

none
暂无评论...