ITBear旗下自媒体矩阵:

全国首例AI“幻觉”侵权案落槌:厘清责任边界 护航技术创新与权益保障

   时间:2026-01-28 23:27:57 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

随着生成式人工智能技术的广泛应用,其生成内容引发的法律争议逐渐进入公众视野。近日,杭州互联网法院就全国首例因AI“幻觉”导致的信息误导侵权案作出判决,明确划定了人工智能服务提供者的责任边界,为同类案件的司法实践提供了重要参考。

案件起因于某科技公司开发的智能对话应用。2025年6月,用户梁某在查询高校报考信息时,该应用生成了关于某校区的不实内容。尽管梁某多次纠正,应用仍坚持错误信息并承诺“若出错赔偿10万元”。当梁某提供官网证据后,应用才承认错误并建议其通过法律途径索赔。梁某遂以信息误导造成经济损失为由,向法院起诉要求赔偿9999元。

庭审焦点首先集中在AI生成的“赔偿承诺”是否具有法律效力。法院审理认为,人工智能不具备民事主体资格,其生成的表述不能视为服务提供者的真实意思表示。判决指出,AI既非法律意义上的自然人或法人,也未获得独立承担权利义务的资格,因此相关“承诺”不产生法律约束力。这一认定明确了人工智能在法律框架中的工具属性。

关于责任认定原则,法院突破传统产品责任思维,创新采用过错责任原则。判决详细阐释了四方面考量:生成式人工智能属于信息服务而非实体产品;其内容风险未达到需适用无过错责任的高度危险性;服务提供者难以完全预见和控制所有输出结果;过度严苛的责任可能阻碍技术创新。这一原则的确立,平衡了用户权益保护与技术发展需求。

在具体责任认定环节,法院构建了动态注意义务标准体系。服务提供者需履行三层义务:对违法信息承担严格审查责任;以显著方式提示AI生成内容的局限性;采取行业通用技术提升内容准确性。经查证,涉事公司已在应用界面显著位置标注功能局限提示,并采用检索增强生成等技术优化输出,已尽到合理注意义务。同时,原告未能提供因误导产生实际损失的证据,且AI错误信息未实质影响报考决策,法院最终驳回诉讼请求。

该案审判长肖芄特别指出,人工智能的研发应用具有公共价值属性,在技术发展初期应避免“寒蝉效应”。通过过错责任原则,既能设立禁止生成违法信息的红线,又能激励企业采取技术防范措施,形成弹性治理规则。这种动态平衡机制,为新兴技术领域的规则构建提供了司法样本。

清华大学法学院程啸教授从学理层面解读称,判决否定了人工智能独立民事主体地位的争议观点,明确了服务提供者的过错认定标准。特别是对注意义务的类型化区分——结果性义务与方式性义务的划分,既考虑了技术现实又兼顾了权益保护,为类似案件审理提供了可操作的判断框架。这种区分标准,有效解决了技术发展与法律规制之间的张力问题。

此案判决引发法律界广泛讨论。专家普遍认为,在人工智能快速迭代的背景下,司法实践通过个案探索逐步完善规则体系,既为技术创新划定行为边界,也为用户权益保护提供救济路径。这种“案例积累-规则细化-体系完善”的演进模式,符合新兴技术领域的治理规律,有助于构建包容审慎的监管框架。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version