杭州互联网法院近日就全国首例因生成式人工智能“幻觉”引发的侵权纠纷作出判决,这一司法实践迅速成为科技与法律领域热议的焦点。案件不仅首次以司法裁判回应了人工智能内容生成技术带来的法律挑战,更通过清晰的裁判逻辑为AI产业划定了责任边界,为行业规范发展提供了重要制度参考。
2025年6月,高考生梁某在使用某科技公司开发的AI应用查询高校信息时,遭遇了戏剧性一幕。该AI在回答某高校校区设置问题时,虚构了一个并不存在的主校区。当用户指出错误时,系统不仅未修正信息,反而声称“若内容有误将赔偿10万元”,甚至建议用户向法院起诉索赔。这一系列操作最终导致梁某以“误导报考”为由提起诉讼,要求科技公司赔偿9999元损失。
庭审焦点集中在AI生成的“赔偿承诺”是否具有法律效力。法院明确指出,根据现行《民法典》,民事主体仅包括自然人、法人和非法人组织,人工智能既不具备生物学意义上的主体资格,也未被法律赋予独立民事地位。法官强调,涉案“承诺”本质是算法基于训练数据随机生成的文本,既不代表企业真实意愿,也不构成法律意义上的意思表示。社会公众不应对此类自动生成内容产生合理信赖。
在责任认定方面,法院创新性地构建了过错责任框架。判决认定生成式AI服务属于《生成式人工智能服务管理暂行办法》规制的“服务”范畴,而非传统“产品”,因此适用过错责任原则而非严格产品责任。这一认定基于四方面考量:AI服务缺乏固定质量标准、生成内容危险性较低、企业难以完全预见输出结果、过度追责可能抑制技术创新。经审查,科技公司已在用户协议和交互界面显著提示AI局限性,并采取检索增强生成(RAG)等技术优化输出,最终因无法证明实际损害与因果关系,法院驳回原告诉请。
该判决释放出三重行业信号。首先,明确划定AI工具属性边界,防止法律人格泛化倾向,避免企业为算法不可控行为承担无限责任。其次,确立“过错责任+动态注意义务”的治理模式,既要求企业采取技术防范措施,又为创新保留弹性空间。最后,通过司法倡导形成审慎使用AI的社会文化,提醒公众当前大模型仍属于文本辅助工具,关键决策需多方验证。
法律专家指出,此案为AI治理提供了“中国方案”。在技术快速迭代背景下,司法裁判既需守住安全底线,又要避免过度规制阻碍创新。判决通过区分服务与产品责任、明确企业注意义务标准,在用户权益保护与技术发展需求间找到了平衡点。这种“发展型监管”思路,或将影响后续AI相关立法与司法实践走向。
随着生成式AI加速渗透教育、医疗、金融等领域,类似纠纷可能持续涌现。本案判决提醒行业,技术中立不等于责任免除,企业需在算法优化、风险提示、投诉处理等方面建立全流程合规体系。对于普通用户而言,保持对AI内容的批判性思维,在重要决策中坚持人工复核,仍是规避风险的有效方式。












