当生成式AI“一本正经地胡说八道”,责任该由谁承担?
全国首例相关侵权案判决公布,驳回用户索赔请求;同时,明确了AI生成的“幻觉”内容不构成法律承诺,服务提供者已尽合理注意义务时无需担责。
近日,杭州互联网法院审结了全国首例因AI“幻觉”引发的侵权纠纷。AI“幻觉”,指其生成不符合事实或逻辑的虚构内容。作为“生成式AI侵权第一案”,该案的判决具有重要的司法先导意义,推动了AI内容的法律权责及边界的划分。
AI误导考生填志愿被诉
2025年6月,梁某为填报高考志愿,使用某科技公司运营的生成式人工智能应用查询高校信息。
在使用过程中,AI生成了关于该校的不实信息。梁某当即指出错误,但AI坚称信息准确,还进一步“承诺”:若内容有误,将向用户提供10万元赔偿。梁某在查询高校官网确认信息有误后,将准确的招生信息反馈给AI。随后,AI“建议”梁某前往杭州互联网法院起诉索赔。
这一系列颇具戏剧性的互动,促使梁某起诉了该AI平台的研发公司,并要求赔偿损失9999元。
他认为,AI生成的不实信息对其构成了误导,使其可能错失报考机会,并产生了核实成本等损失。面对起诉,被告某科技公司提出了明确抗辩。其主张的核心在于三点:首先,对话内容由AI模型自动生成,并非公司的真实意思,不具备法律效力;其次,公司已在用户协议及产品显著位置尽到风险提示义务;最后,原告未能证明其因该信息遭受了实际且确定的损害,侵权事实不成立。
法院判定AI“承诺”无效
此案的一个关键前提在于,AI的“承诺”是否有效?
法院明确指出,人工智能不具有民事主体资格,不能独立作出或传达法律意义上的意思表示。本案中,AI自行生成的赔偿承诺,不能视为科技公司的意思表示,不产生法律约束力。
法官指出,服务提供者的义务是分层、动态的。
第一层是底线义务,即严格杜绝生成违法有害信息;第二层是显著提示义务,必须以明确方式告知用户AI内容可能不准确;第三层是基本可靠性义务,需采取业内合理技术措施(如检索增强生成)提升准确性。
经审查,被告已在用户协议、欢迎页面及对话界面进行显著提示,并采用了相应技术,已尽到合理注意义务,主观上不存在过错。同时,原告主张的“错失报考机会”等损害,因缺乏证据而无法认定,且错误信息与所谓损害之间也难以建立法律上的因果关系。
最终,经法院审理,认定被告行为不构成侵权,判决驳回梁某的全部诉讼请求。
亟待搭建的AI法律边界
首案判决虽已落槌,但关于AI“幻觉”法律边界的探讨还在继续。本案主审法官、杭州互联网法院跨境贸易法庭庭长肖芄指出,审理需平衡创新与权益保障。若在技术发展初期即对AI服务误以过重的严格产品责任,可能抑制创新。采用过错责任原则,构建一套动态、弹性的规则治理体系更为适宜,既能设下违法信息红线,又能激励企业通过技术迭代降低风险。
清华大学法学院教授程啸认为,本案的判决明确否定了AI的法律民事主体资格,并认定了生成式人工智能属于服务,而非产品,故不适用于产品责任,而适应一般过错责任原则;同时,科学合理认定了服务提供者的过错标准,为未来司法提供了标准参考。
中国社会科学院大学互联网法治研究中心主任刘晓春从技术原理解释了“幻觉”的必然性。她建议,监管应进行风险分级:在通用、低风险场景(如本案)适用相对宽松的过错责任;在医疗、金融、法律等高危领域,则应要求应用方遵循更严格的技术标准与提示义务。
当前,AI内容的法律边界搭建不仅是司法裁判问题,更是涉及了技术标准、行业伦理与行政监管的系统工程。从司法个案,到行政监管,再到全社会对AI内容的理性认知,一个“司法定规、监管协同、社会共治”的多方治理框架正在加速构建。









中国品牌网
中国品牌杂志微信公众号