当前位置: 首页 > 法治实践
2025 06/04 15:16:48

过错之争:论生成式人工智能侵权责任归责原则

字体:

生成式人工智能(Generative Artificial Intelligence,以下简称GAI)的模型训练与场景应用各环节蕴含着种种侵权可能:在数据收集环节,其可能侵犯他人个人信息或商业秘密;在生成内容环节,其生成物可能构成对他人的侮辱、诽谤,或侵犯他人著作权。伴随着人工智能的飞速发展和快速应用,迫切需要法学界对如何认定其侵权责任问题做出回应。由于GAI的运行具有“黑箱”特性,围绕GAI侵权归责原则这一核心问题,学界形成了不同观点且针锋相对。对此,既要从本体角度循法理做出体系化剖析,亦需从功能视域出发,考量有利于促进人工智能发展的制度安排。

第74页-4_副本.png


生成式人工智能(即梦AI生成)

一、GAI侵权的典型场景与归责歧见

(一)GAI侵权的典型场景

在GAI开发到应用的各个阶段具有不同的侵权场景。数据收集时存在大规模非法收集含著作权、个人信息数据导致侵权的可能。GAI模型的开发需要应用大量训练数据,模型训练阶段数据收集时存在服务提供者非法大规模收集含有著作权、个人信息数据进行训练的可能;在GAI模型生成内容时存在生成虚假信息侵害他人人格权,以及生成著作权侵权内容的可能。从侵权成因角度看,主要有两种侵权场景的界分较为重要:一种是模型自发生成侵权内容的场景,另一种是用户恶意诱导生成侵权内容的场景。

当前GAI侵权归责原则的主要争议在GAI模型自发生成侵权内容的场景。而在用户恶意诱导生成侵权内容的场景中,用户恶意避开了GAI服务提供者的监管措施,GAI模型在侵权行为中具有一定工具属性,GAI服务提供者则扮演了类似传统网络侵权中网络平台的角色,其应尽合理的义务为收到受害者举报后,及时采取合理手段防止损害发生、扩大,如未履行该义务,则可能构成不作为的侵权,在这种情况下侵权责任的归责原则仍为过错责任原则。据前所述,本文探讨的GAI侵权场景,主要指模型自发生成场景,对于用户恶意诱导场景不再展开。

(二)GAI侵权的归责歧见

学界在GAI侵权的归责原则问题上有不同的观点,包括一般侵权观和无过错责任观。

首先是一般侵权观,即过错责任。这种观点的内部分歧主要在于是否需要部分或全部适用过错推定。中国人民大学教授王利明主张,在大规模采集个人信息中,GAI服务提供者违反个人信息处理者义务的,承担个人信息处理者责任,这是一种过错推定责任。北京航空航天大学法学院教授周学峰提出,在我国司法诉讼背景下,由于群众获得专家证人帮助困难,宜通过立法规定的方式,整体适用过错推定。部分学者认为,应将注意义务作为判断生成式人工智能服务提供者著作权侵权的核心。

其次是无过错责任观。上海政法学院佘山学者特聘岗教授徐伟提出GAI侵权是一种新型危险责任类型,过错责任原则存在适用困难,适用过错推定原则亦存在理论障碍,而适用无过错责任原则有其正当性。中国政法大学博士后流动站研究人员刘云开则提出在GAI生成内容的著作权侵权情形中,由服务提供者承担无过错责任原则更为合理。苏州大学王健法学院教授赵毅和学者沈维清则提出:“当GAI直接侵权时,同样可将GAI与生成式服务提供者视为雇员与雇主关系,并要求生成式服务提供者承担无过错责任。”部分学者认为针对具有高度侵权风险的GAI应用板块,对提供者应课以更为严格的事前主动审查义务,采取严格责任或无过错责任的归责机制。

二、本体视域下GAI侵权无过错责任观之驳论

(一)GAI侵权采用无过错责任原则尚缺必要性

无过错责任观的主要理由可归纳为:合理分配社会风险、维护无辜的受害人权利、服务提供者创造高度侵权危险、有效降低监管成本、有助于激励服务提供者提高自身技术、服务提供者从行为中获益、类推适用雇主责任,等等。而从一般性意义上的无过错责任角度看,无过失责任的基本思想是对不幸损害的合理分配,而承担这种责任的理由主要有四种:一是主体制造了危险源;二是在某种程度上仅该主体能够控制这些危险;三是该主体获得利益、负担危险,系公平正义之要求;四是该主体虽承担危险责任,但法律对损害赔偿金额设有限制,或赔偿责任范围可预计,可通过商品、服务的对价与保险予以分散风险。但GAI侵权并不满足前述理由,缺少立法特殊规定无过错责任的必要性。

一是GAI侵权缺少超出一般侵权框架的危险性,难以适用无过错责任。当前阶段GAI软件实质上仍是一种信息生成服务,这种服务本身的危险性非常有限。相较于作业致害责任、产品责任等承担危险责任的场景,GAI服务不会直接损害生命权、健康权等位阶的法益。无过错责任主要是基于工业生产给人们的生命安全带来的危险而产生的,故又称为危险责任,在司法实践中不应轻易扩张这种危险责任的范围。

二是生成人工智能服务提供者并不具有控制侵权危险的能力。GAI生成的内容并非预设好的结论,“而是根据上下文预测所有可能输出的下一个字符,并选择概率最大的语句作为最终输出结果。”GAI模型在同一个问题上可能生成不同的答案,且GAI存在“幻觉”问题,会编造虚假信息。因此用户与服务提供者均无法完全控制生成内容的输出,服务提供者并不具有控制侵权危险的能力。

最后,GAI侵权中类推适用雇主责任亦存在困难。因为服务提供者并非真正的内容生产者,内容由GAI模型生成,当前阶段法律法规没有将GAI模型纳入法律主体,不宜直接类推适用无过错责任。

(二)GAI侵权情形不契合无过错责任的社会本位理论基石

无过错责任的经济基础是现代化工业的大发展,其理论基石是社会本位理论。“无过错责任的产生是从整个社会利益之均衡、不同社会力量强弱之对比以及寻求补偿以息事宁人的角度体现民法公平原则的,”其中有一个重要的判断标准是“社会力量强弱对比”。

首先,“社会力量强弱对比”在GAI侵权中很难成立。服务提供者并不具有对输出结果的控制能力。“社会强弱力量对比”一定是建立在具体场景中的,即使服务提供者对GAI的了解比用户多,拥有的数据量比用户大,亦并不能推导出服务提供者在GAI侵权中比用户拥有更强的控制能力。服务提供者难以完全清晰地认识GAI侵权的具体成因,亦难以实现对输出内容的控制,反而是用户能通过各种手段绕开服务提供者的屏蔽词等防范措施,引导内容的生成。

其次,对服务提供者侵权责任归责原则采取无过错责任不符合实质公平要求。一是,从GAI侵权的风险成因上看,GAI侵权中多个主体均存在承担促成侵权风险发生的可能,各方对风险的贡献难以在脱离个案的场景中进行一般性认定,不宜单令服务提供者承担无过错责任。二是,从不幸损害分配的角度看,仅因服务提供者可以采取更多分散风险(如改变定价、购买保险)的措施,无法推导出服务提供者应承担无过错责任。这种倾斜保护的理由尚不充分,是对市场的过度介入,亦不符合实质公平要求。

最后,并非损害可以分配就必然分配。GAI侵权中对服务提供者采用无过错责任的一大初衷在于被害人更易从服务提供者处获得补偿,但这样的逻辑并非当然具有正当性。事实上,在罗马法时期就已确认一种受害人应当自行承担损失的侵权法原则,“这一原则出发点在于反对由法律来阻止偶然事件发生,并反对由法律补偿因命运所造成的不平等”,这一原则也成为侵权法的逻辑起点,即受害人要求他人承担责任需要归责基础。被害人的补偿并不是一件必须通过适用无过错责任原则解决的问题,在坚持过错责任原则的基础上可以通过多种侵权法框架外的手段减少侵权损害风险的发生,如制定技术标准、设立公法义务,等等。从另一个层面看,允许一定的损害发生是发展须付出的代价。

三、功能视域下GAI侵权过错责任论的优越性

(一)过错责任有助于保护GAI产业发展

相较无过错责任原则,过错责任原则具有保护市场机制发挥作用、保护GAI产业发展的优势。首先,相较无过错责任归责原则,过错责任原则更能激励服务提供者提升技术水平。更严格的责任可能会将投资人的资金逼向其他领域。对GAI侵权采用无过错责任,一个可能的直接后果就是资金开始避开投资GAI服务提供者,或者寻找合规成本更低地区进行投资。在GAI全球竞争的背景下,不发展就是最大的不安全,在激励服务提供者在提升自身技术问题上,自上而下通过无过错责任倒逼服务提供者提高自身技术的思路,效果不及坚持过错责任原则,通过市场配置资源的方式。

其次,过错责任原则有助于集中更多资源用于模型开发。过错责任有利于服务提供者对成本有合理预期,基于对注意义务的细化,服务提供者通过履行注意义务方式主动规避侵权危险,将更多的资源与成本集中在模型的开发迭代上。

最后,过错责任说符合帕累托最优。虽过错要件认定在实践中存在认定困难,但其后果是可能导致GAI服务提供者实质上几乎不承担侵权责任,造成事实上的事后免责。这种服务提供者未承担责任的状态本身,并不能成为突破过错责任原则的充分理由,反而可以有效保护GAI服务提供者免受高度不确定侵权风险的恐惧,有助于将更多的精力投入市场竞争,通过市场机制促进产业发展。如果突破传统侵权法框架增设无过错责任类型,本质上是一种对GAI的“因人设法”,这种做法对创新很难起到促进作用的同时,会影响现有制度框架,这种改进措施显然不符合帕累托最优。

(二)过错责任为通过多种方式纾解GAI侵权危险预留空间

在GAI侵权中采用过错责任说,有助于多种方式纾解GAI侵权危险,为人工智能专门立法预留空间。坚持过错责任原则,有助于协同包括分级分类监管、包容审慎监管、强调多元主体协同参与等多种方式进行生成人工智能侵权危险的预防,亦为后续人工智能立法预留空间,具有体系性层面优势。

一是采用过错责任说有利于分级分类监管。坚持过错责任原则,差异化适用过错推定原则有助于分级分类制度建设。欧盟的《人工智能法》认识到分级分类的重要性,但是其分级分类面临着标准困境。宜发挥企业的力量,发挥行业自律,通过技术手段等方式在行业内部自下而上地探索分类模式,这种市场动态调节形成分级分类标准的效果优于自上而下简单规定的分类方式。过错责任原则亦对其他更高风险的人工智能应用侵权场景采用过错推定预留了空间。

二是采用过错责任与公法层面的包容审慎监管更契合。采用过错责任说有助于发挥市场作用,与包容审慎监管目标和制度措施更具契合性。具体而言,过错责任有助于避免侵权责任的不当扩大,更契合公法层面有助企业自主探索的措施,如“可以相应地缩短技术落地的审批流程,降低企业的成本,有助于在企业和监管机构之间建立更有成效的沟通机制”,亦契合“在技术成熟之前,细化GAI服务提供者的合规免责制度”的要求。基于过错责任原则,可以更好地适配公法层面的制度设计,形成健全、贯通的公私法制度体系,亦可避免侵权责任打击面不当扩大带来的“寒蝉效应”。

三是采用过错责任说有利于多元主体协同参与。过错责任说为多元主体参与侵权危险治理提供了空间,避免诉讼取代整个GAI侵权危险治理。具体而言,在采用过错责任说同时,发挥社会力量,充分调动非政府主体协调治理,建立“‘以政府为主导,企业、社会协同参与’的多元共管机制”共建共治共享,“充分发挥政府、国际组织、人工智能企业、技术社群、社会组织和公民个人等各主体的作用,”通过全社会的共同参与达到防范风险、包容创新的目的。GAI侵权中坚持过错责任归责原则,同时自下而上发挥社会力量,只有采用技术治理、软法硬法协同等多种治理手段,才能在有效防范侵权危险的同时不破坏创新。这些措施需在侵权领域不改变过错责任原则的前提下,才能更好发挥体系性作用。

四、GAI侵权中过错的认定

(一) 过错要件通过注意义务违反与否予以判断

在GAI侵权语境中,过错要件应采用服务提供者相关注意义务的违反与否的判断路径。注意义务的来源具有多样性,“既可以是来自法律和行政法规等,也可以是技术规则等,还可以是法律的基本精神,”因此在GAI侵权角度,学者提出生成阶段注意义务来源于“法令上义务”和“一般防范损害发生之义务”。服务提供者的注意义务来源应当以保护性规范为限,即“法律和行政法规中以保护主体的特定民事权益为目的的规范”。从注意义务的内容角度看,包括事前的数据算法进行合法性审查的义务、事中的对算法逻辑和内容来源以及潜在风险的披露义务以及事后对违法内容的控制预防与及时响应义务。通过注意义务内容的细化,可实现过错要件认定的客观化,同时应兼顾服务提供者的分级分类,不同级别类别的服务提供者承担的注意义务内容也应有一定差异。注意义务内容的建构较为复杂,为探讨集中,此处不过多展开。

注意义务审查的对象应限于内容的违法性,而不包含内容单纯的虚假性。在《GAI服务管理暂行办法》(以下简称《暂行办法》)第四条第一款中,通过列举的方式规定了禁止生成的违法内容范围,该条款列举的大部分内容来源于《网络信息内容生态治理规定》。《暂行办法》第四条第一款中虽有“以及虚假有害信息等法律、行政法规禁止的内容”的表述,但此处亦有明确的违法性要件规定,要求是法律、行政法规禁止的内容。换言之,生成服务过程中单纯地基于模型自身“幻觉”生成的虚假信息,不应被囊括在内。由于GAI的技术特点,要求生成内容没有虚假信息,会对服务提供者课以过重负担,亦不现实。故应明确,内容审查义务的对象是《暂行办法》第四条第一款及其指向的相关法律、行政法规所禁止的具有违法性的内容,不应包括单纯虚假的内容。

(二) 过错认定中对注意义务内容应审慎限缩

首先,在当前原则上不宜赋予GAI服务提供者过重的内容审查注意义务。由于GAI应用范围广,交互量大,服务提供者无法对可能的侵权危险做到完全审查,因此,目前阶段服务提供者的内容审查注意义务不应要求消除危险。内容审查注意义务的内容应当结合内容生成场景和提供者侵权危险预见能力进行差异化。在当前GAI侵权场景中,服务提供者对生成内容的预见能力、控制能力有限,其承担最低限度的主动设置输入输出屏蔽词、对已生成的侵权内容进行控制与响应等义务内容较为合理。

其次,注意义务的内容应当以现有技术水平为标准考量。宜综合考虑行业整体水平和地域维度因素,以确定服务提供者是否尽到了采取必要措施以及对风险的控制响应义务。服务提供者的注意义务宜参考在损害发生时以该国家、地区的平均技术水平,服务提供者应当尽到本行业平均的注意义务标准。如果服务提供者论证自己在侵权内容生成时,已尽到当时技术条件下的最大努力,仍无法避免内容生成,则不应认定为违反了注意义务。

五、结语

在GAI侵权中,GAI服务提供者对内容生成并不具有控制能力,仅有屏蔽部分关键词输入输出的能力,且该情形缺少超出一般侵权框架的危险性,不符合适用无过错责任的必要条件,并且不符合实质公平要求。采用过错责任原则能够保护GAI产业发展,防止对服务提供者施以过重负担,避免“寒蝉效应”,有利于鼓励创新,且相较无过错责任原则,更契合通过多种方式纾解GAI侵权危险的体系性方案。过错要件的认定困难可通过明确服务提供者的注意义务加以解决,故过错责任原则是GAI侵权中更佳的归责原则选项。(中南大学法治实施研究中心 章峥)

[本文系国家社会科学基金项目“数字时代算法消费者权益保护研究”(项目编号:24BFX066)的研究成果。]


参考文献

[1] 朱嘉珺:《生成式人工智能虚假有害信息规制的挑战与应对——以ChatGPT的应用为引》,载《比较法研究》2023年第5期,第34-54页。

[2] 高阳:《通用人工智能提供者内容审查注意义务的证成》,载《东方法学》2024年第1期,第189-200页。

[3] 王若冰:《论生成式人工智能侵权中服务提供者过错的认定——以“现有技术水平”为标准》,载《比较法研究》2023年第5期,第20-33页。

[4] 周学峰:《生成式人工智能侵权责任探析》,载《比较法研究》2023年第4期。

[5] 王利明:《生成式人工智能侵权的法律应对》,载《中国应用法学》2023年第5期,第27-38页。

[6] 韩旭至:《生成式人工智能治理的逻辑更新与路径优化——以人机关系为视角》,载《行政法学研究》2023年第6期,第30-42页。

[7] 冯晓青、沈韵:《生成式人工智能服务提供者著作权侵权责任认定》,载《法治研究》2025年第1期,第46-58页。

[8] 王新、王宣亿、黄晓亮等:《ChatGPT类生成式人工智能的法律风险及治理(笔谈)》,载《天津师范大学学报(社会科学版)》2024年第3期,第21-38页。

[9] 陈兵、董思琰:《生成式人工智能的算法风险及治理基点》,载《学习与实践》2023年第10期,第22-31页。

[10] 王泽鉴:《王泽鉴法学全集·第二卷——民法学说与判例研究②》,中国政法大学出版社2003年9月版。

[11] 魏振瀛:《侵权责任方式与归责事由、归责原则的关系》,载《中国法学》2011年第2期,第27-37页。

[12] 王沛然:《从控制走向训导:通用人工智能的“直觉”与治理路径》,载《东方法学》2023年第6期,第188-198页。

[13] 李铭轩、文继荣:《AIGC时代网络信息内容的法律治理——以大语言模型为例》,载《北京理工大学学报(社会科学版)》2023年第6期,第83-92页。

[14] 胡泳:《AI视频的兴起:Sora类生成式平台的可能性与风险》,载《传媒观察》2024年第4期,第5-19页。

[15] 张新宝、任鸿雁:《互联网上的侵权责任:〈侵权责任法〉第36条解读》,载《中国人民大学学报》2010年第4期,第17-25页。

[16] 周友军:《我国危险责任一般条款的解释论》,载《法学》2011年第4期,第152-159页。

[17] 徐伟:《生成式人工智能服务提供者侵权归责原则之辨》,载《法制与社会发展》2024年第3期,第152-159页。

[18] 毕文轩:《生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角》,载《比较法研究》2023年第3期,第155-172页。

[19] 张凌寒:《生成式人工智能的法律定位与分层治理》,载《现代法学》2023年第4期,第126-141页。

[20] 程乐:《生成式人工智能的法律规制——以ChatGPT为视角》,载《政法论丛》2023年第4期,第69-80页。

[21] 王利明:《我国〈侵权责任法〉采纳了违法性要件吗?》,载《中外法学》2012年第1期,第5-23页。

[22] 程啸:《论个人信息侵权责任中的违法性与过错》,载《法制与社会发展》2022年第5期,第191-209页。

[23] 毕文轩:《论生成式人工智能服务提供者的注意义务》,载《苏州大学学报(哲学社会科学版)》2025 年第 2 期,第90-103页。

[24] 徐伟:《生成式人工智能服务提供者侵权过错的认定》,载《法学》2024年第7期,第110-124页。


【本文刊载于《人民法治》杂志2025年5月上(总第201期) 法治新知栏目】

【责任编辑 -王雪】
返回顶部