首例 AI“幻觉”案宣判:当大模型胡说八道时,法律到底站哪边?深度解析 AI 责任边界
导语: 2026 年初,杭州互联网法院宣判了一起足以载入 AI 史册的案件:全国首例因生成式 AI “幻觉”引发的侵权纠纷案。案件的核心很简单:一个学生用 AI 查大学报考信息,AI 给出了错误的校区信息,甚至还“承诺”如果有误赔偿 10 万。结果学生信了,发现被骗后把 AI 公司告上法庭。这看似是一起普通的民事纠纷,却触碰了 AI 行业的“阿喀琉斯之踵”——幻觉。当 AI 在一本正经地胡说八道时,谁该为此买单?法院的判决不仅厘清了法律边界,更为整个 AI 行业的合规发展定下了基调。
一、 案件复盘:一个“10万元赔偿”引发的法律风暴
案情回顾:
- 起因: 原告梁某询问某高校报考信息,AI 生成了关于校区的不准确内容。
- 升级: 梁某质疑后,AI 仍坚持错误,并声称“若有误赔偿 10 万元”。
- 诉求: 梁某起诉 AI 运营方,要求赔偿 9999 元。
- 判决: 法院驳回原告诉请,认定被告(AI 公司)不构成侵权。
关键点: AI 说的“赔偿 10 万”算数吗?
法院明确指出:不算数。
- AI 不是人,没有民事主体资格,不能通过意思表示(承诺)产生法律效力。
- AI 只是代码和算法的集合,它的“承诺”是概率生成的文本,不是公司的真实意愿。
二、 核心争议:AI 到底是个“产品”还是“服务”?一字之差,天壤之别
这是本案最硬核的法律定性。
- 如果 AI 是“产品”: 适用《产品质量法》。
- 原则: 无过错责任。只要产品有缺陷造成损害,不管生产者有没有过错,都得赔。这对 AI 公司是灭顶之灾。
- 如果 AI 是“服务”: 适用《民法典》。
- 原则: 过错责任。只有当服务提供者“有过错”(比如没尽到审查义务)时,才需要赔。
判决结果:AI 是“服务”。
法院依据《生成式人工智能服务管理暂行办法》,认定生成式 AI 属于服务范畴。理由是:
- 不可控性: AI 生成内容是即时的、随机的,服务商很难像控制实体产品那样控制每一个 Token。
- 产业保护:如果适用无过错责任,会产生“寒蝉效应”,阻碍 AI 技术创新。
数据佐证:
根据 Vectara 的研究,目前主流大模型(如 GPT-4)的幻觉率仍高达 3% - 5%。如果每一句幻觉都要平台负责,AI 公司早就破产了。
(数据来源:Vectara Hallucination Leaderboard)
三、 责任边界:AI 胡说八道,平台到底该不该背锅?
虽然平台不用为每一句幻觉负责,但并不意味着可以“甩手不管”。法院提出了“动态义务三部曲”:
- 红线义务(结果责任):
- 对于法律禁止的“有毒”、有害、违法信息(如涉黄、涉暴),平台必须严格审查。一旦生成,即视为有过错。
- 提示义务(过程责任):
- 平台必须在显著位置告诉用户:“AI 可能会犯错,仅供参考”。本案中,被告在欢迎页和协议里都做了提示,因此被认定尽到了义务。
- 技术义务(能力责任):
- 平台必须采取技术手段(如 RAG 检索增强、RLHF)来降低幻觉。本案被告采用了检索增强技术,被法院认可。
深度洞察:
法院确立了一个标准:“尽力而为”。只要平台尽到了当时技术水平下的最大努力,且没有主观恶意,就不构成侵权。
四、 行业启示:给所有 AI 创业者的三条“保命指南”
这个判决是 AI 创业者的“护身符”,也是“紧箍咒”。
指南 1:用户协议别乱写,免责声明要醒目
- 动作: 在对话框下方、启动页、设置里,反复强调“AI 生成内容可能不准确”。这不仅仅是体验问题,是法律免责的关键证据。
指南 2:RAG(检索增强)是合规的“防弹衣”
- 动作: 既然纯模型会产生幻觉,那就必须外挂知识库(RAG)。法院明确将“采取检索增强技术”作为判断平台是否尽责的依据之一。
- 数据: RAG 可以将特定领域的幻觉率从 20% 降低到 2% 以下。
(数据来源:Pinecone RAG Benchmark)
指南 3:区分“违法信息”和“不准信息”
- 策略: 对涉政、涉黄内容要用最高等级的过滤器(100% 拦截);对事实性错误(如把 100 写成 1000),可以通过产品提示来规避责任。
五、 终局推演:从“结果责任”到“过程责任”,AI 合规的新常态
随着 AI 能力的提升,法律对 AI 的容忍度会动态调整。
- 现在(2026): 技术还不成熟,法律宽容,主要看“过程”(你有没有努力改)。
- 未来(2030): 当 AI 成为基础设施(如 AI 医生、AI 律师),法律可能会转向“结果”。如果 AI 医生误诊,可能会面临巨额索赔。
清华大学程啸教授点评:
“本案判决既充分考虑了民事主体合法权益,也注意到了 AI 幻觉无法全部消除的客观现实。这是在‘鼓励创新’与‘权益保障’之间寻找的动态平衡。”
(来源:人民法院报)
六、 总结
杭州互联网法院的这一判决,为中国 AI 产业送上了一颗定心丸。它告诉我们:AI 犯错在所难免,法律不会苛求完美,但会惩罚懒惰。*对于 AI 公司来说,只要你没有主观作恶,并且在技术上尽力了、在提示上到位了,法律就会保护你的创新权。这不仅是一个判决,更是一份AI 时代的“免责通行证”与“合规说明书”。



