一、问题提出
“数字人”主播是指参考人类外貌、心智等元素,具有多重人类特征(如外貌特征、人类表演能力、人类交互能力等),通过各种计算机手段创造的,能够在视频、直播、新闻播报等多媒体内容中扮演主持人角色的虚拟人物。
“数字人”主播的起源可以追溯到2001年英国推出的虚拟电视女主播阿娜诺娃。从2017年起,随着人工智能技术的快速发展,虚拟主播的发展进入爆发期。科大讯飞等企业利用语音合成、图像处理等技术,让虚拟主播的形象日益多样化。近年来,随着数字技术的进步和直播平台用户规模的不断扩大,“数字人”主播的大众化程度大幅提高。截至2021年,行业进入快速增长阶段,中国虚拟主播市场规模约3亿元,同比增长103.1%。
随着以ChatGPT为代表的生成式AI的广泛应用,“数字人”主播正展现出和生成式AI技术融合发展的强智能化态势。由生成式AI驱动的“数字人”主播具备和观众进行交互性多轮对话、独立艺术创作、实时微表情表达等能力,在思维、语言和行为上都更接近于真人。这一方面彰显出技术的飞速发展,另一方面催生出诸多技术风险和法律问题。这不禁让我们深思:依靠生成式AI技术的“数字人”主播有没有超出人类控制范围、获得主体性的可能性?对此应当建立怎样的法律规制框架?
二、探讨生成式AI驱动型“数字人”主播主体性的必要性
(一)技术特点
由于内驱技术智能化程度低,认知和反应能力不够的“数字人”主播可应然地被看作法律客体,只有内驱技术智能化程度高,具备一定意识的“数字人”主播才有值得讨论主体性的空间。实际上我们可以把生成式AI驱动型“数字人”主播看作生成式AI的具体人形外化,对其主体性的讨论在底层逻辑上就是对生成式AI主体性的讨论。
生成式AI属于强人工智能的一个分支,与传统的弱人工智能相比,生成式AI不仅是完全受人类支配完成机械任务的工具,而且在适当的技术框架下它实际上具备理解和认知能力,在一定程度上可以实现对人类脑力劳动的替代。
“生成式”这一特点是探讨生成式AI是否具有意识甚至可以成为法律主体的重要原因。“生成式”主要体现在强交互、多任务和开放性三大技术特点上。生成式AI能够即时回应人类请求,并将交互结果应用于大模型,从而训练出与人类相似的理解能力、创造力和变通力,最终在多种灵活任务场景中和人类相互协作,彼此增强。如“语音助手”、“智能管家”等人工智能虽然也能对人类命令做出即时反馈,但反馈的都是根据程序预设好的答案。生成式AI则不然,它能够通过输入海量数据不断自我更新、自我完善、自我演进,从而打破人、机器与信息资源之间的边界,重塑信息资源生成和使用范式。
(二)学理意见
持支持观点的学者认为,当前法律主体呈现扩张的趋势。对人工智能法律主体性的探讨必须突破当前以人类为中心的限制,人工智能如果能够具有独立自主的行为能力,有资格享有法律权利并承担责任义务,就应当具备主体性。然而,这样简单“一刀切”的做法会给构建未来智能社会正常的法律秩序带来困难。
但也有学者持相反观点,认为主体性本是哲学概念,指的是“有认识和实践能力的人”。法律同样是为了人而制定的,法律上的主体是希望借助权利和义务的法律拟制,将所有生物学意义上的自然人,转变成社会关系中受法律规范约束和保护的“规范人”。即使是法人这一人造拟制主体,除在具有独立意志外,也是由多数自然人集合而成。相较而言,人工智能与人的联系较为松散,即使是理解和认知能力已经较高的生成式AI,也并不具备人类意志和人类理性,无法成为与人相似的存在物,也就无法成为法律意义上的主体。此外,从价值论上进行考量,对人工智能进行法律主体拟制没有社会价值,无法解决任何社会问题。
(三)司法态势
通过考察当今司法实践,笔者发现与生成式AI驱动型“数字人”主播相关的侵权案件不断涌现。
1.已有问题:“数字人”主播被侵权。2023年4月,杭州互联网法院审结我国首例“虚拟数字人”侵权案件。原告魔珐公司于2019年推出了“数字人”Ada,并进行商业化应用。2022年,被告四海公司在抖音发布了两段含有Ada的被诉侵权视频。原告认为,被告的行为侵害其美术作品、视听作品的信息网络传播权,以及录像制品及表演者的信息网络传播权。被告则认为,“虚拟数字人”不属于美术作品,原告不享有著作权;原告也不享有表演者权,因此不构成侵权。法院最终认定,“虚拟数字人”没有表演权、著作权或是录像制作者的邻接权,但公司作为制作方和真人演员所属公司,依法或者依约拥有该“数字人”的相关权利。
Ada属于真人扮演型“数字人”,对其的控制有赖于真人演员。然而,若是生成式AI驱动的“数字人”主播,具备自主理解作品的能力和表演意识,此时的表演权应当如何认定?能否简单地将“数字人”主播的相关权利转移给公司?这些问题尚无明确答案。
此外,生成式AI驱动型“数字人”主播的人格权问题也值得关注。韩国生成式AI虚拟主播Luda Lee因对残疾人、同性恋、孕妇等群体特定话题表现出歧视而引发网友不满。制作公司通过调取后台数据,发现一些用户会恶意输出污言秽语,导致Luda Lee在学习过程中出现偏差。这种情况表明,用户可以利用程序漏洞对“数字人”主播进行攻击。如果是对真人主播实施这类行为,被侵权人可以通过名誉侵权诉讼寻求法律救济。由于“数字人”主播没有真正的人格权,现有法律无法有效保护其免受侮辱或污名化。
2.未来预警:“数字人”主播致人损害。生成式AI的自主性主要体现在其能够生成或者创作一定的内容,这一优势也是它产生虚假信息风险的根源所在。由于生成式AI采用的大语言模型能够发现训练数据中的语言规律,它有可能利用自己发现的语言规律来捏造现实中不存在的内容。2023年6月5日,美国电视台主持人Walters因ChatGPT在与记者Riehl的对话中捏造他曾被指控诈骗的虚假信息,向OpenAI公司提起名誉权诉讼。尽管国内尚未出现“数字人”主播侵权的案例,但鉴于其即时生成内容与观众交互的能力,未来可能生成虚假或有害内容,导致对观众或者第三人的损害,因此,需要未雨绸缪建立相应的法律防范机制。
三、生成式AI驱动型“数字人”主播的主体性认定——基于三阶层判断标准
综合前述学理分析和司法案例可以看出,随着人工智能技术的渐臻完善,若回避对生成式AI驱动型“数字人”主播的主体资格认定,可能不利于未来对法治和社会秩序的维护。明确其法律主体地位,有助于保护相关主体权利,厘清相关案件中法律责任的归属,减少不必要的争议。综合考量学界对主体性认定的判断标准及现实需求,笔者提出“权利—行为—责任”的三阶层判断标准。
(一)权利能力:基于自身理由的尊重
生成式AI驱动型“数字人”主播要想具备法律主体地位,必须具备权利能力。康德的法权概念中,作为“权利”的法权,意味着个体能够凭借自身意志约束他人行为。权利能力是法律主体所具有的不可否认且毫无争议地享有的内容,而认定权利能力资格的关键标准在于对象是否具有基于自身的值得尊重、保护的理由。从权利的本质来看,权利主体只有具备值得尊重、保护的理由,且这种尊重和保护源于自身,并非为维护他方的利益,才能具备权利能力。
从技术本质来看,生成式AI “是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。”其得出智能化结论的过程实际上分为三个阶段:前置性学习训练及人工标注辅助算法升级的准备阶段、进行自身算法处理输入数据及得出处理后数据产出的运算阶段以及数据产出物流入社会并对社会中的各行各业造成影响的生成阶段。无论是准备阶段的数据还是运算阶段的机制,都来自人类的智慧,其产物本质上是人类的智力成果。就目前技术发展情况来看,生成式AI驱动型“数字人”主播仅能做到对人类的智力成果进行再整合,其直播的性质和主题也要受到人类的干预,尚不足以获得基于自身理由的尊重与保护,不具备权利能力。
(二)行为能力:基于自由意志的行为
普芬道夫认为,人是具有理性、基于自由意志而行为的存在。法律行为是有目的、有意志的行为,可以解构为意思表示和行为模式两大构成要素。意思表示是自由意志的规范表达,并在表意的自我诠释结构中自主实现自由意志的反思能力;自由意志凭借语言或文字等载体在意思表示中显现自身,其合理行事的能力内蕴于意思表示的自由。行为模式则是意思表示在主客体之间有效作用的体现,此种法律行为的规范效力也可归因于表意人的自由意志。
从意思表示的角度来看,享有行为能力要求个体既能根据自身需要做出选择,又能不受外部影响独立做出决策,并追求特定的法律效果。在法律效果的追求上,由于生成式AI驱动型“数字人”主播只能在其被编程程序预先设定的范围内进行选择,它所引发的效果并不出于自主决策,是间接且非主动的,与人类的法律意识和追求法律效果的目标不同。
从行为模式的角度来看,表示行为应是自由自觉的行动,由个体内部的认知和意识过程来驱动的,而非外部强制。生成式AI驱动型“数字人”主播的行为决定很大程度上依赖输入的数据,这些数据可能反映或放大了特定群体或环境的偏见和倾向,导致生成式AI“数字人”主播的决策失衡。如上文提到的Luda Lee,就是一个典型的例证。
(三)责任能力:基于独立执行的责任
责任能力与权利能力、行为能力紧密相关,是民事主体的基本理论发展的基础和起点。若将行为视为自由意志选择的结果,则责任也可顺理成章地将其合理性建立在自由意志的前提之上。法律对责任能力的规定,本质上是将主体的内在能力向外转化,使其拥有法律承认的资格。责任能力指主体以自己的行为履行法律义务和接受不履行义务时的惩治性法律后果的资格,体现了法律主体法律人格的完整性。
从履行法律义务的层面来说,生成式AI驱动型“数字人”主播能够自主决定生成的内容,因此,在某些情况下它可以部分分担甚至完全承担对某个特定结果的因果力作用,从而导致自然人责任承担上的变化。在这种意义上,如果生成式AI驱动型“数字人”能够在意志和意识层面参与“行为—结果”的因果流,它在法律行为中就能够深刻影响自然人义务的认定和履行,从而继续在责任的分配与承担上起到关键性作用。当前,生成式AI的行为仍受研发者、生产者的控制,因此,不能视其已经拥有可成为责任主体的智能水平。
从接受惩治性法律后果的层面来说,承担责任的方式主要体现为财产罚和自由罚。因此,研究生成式AI驱动型“数字人”主播是否拥有责任能力,关键在于确认其是否能拥有独立的财产可供执行,以及对其进行自由限制是否有意义。尽管观众会对生成式AI驱动型“数字人”主播的直播进行打赏,但这些收入都归“数字人”所属公司所有,“数字人”主播本身没有经济收入也没有独立账户。此外,当前的生成式AI缺乏刑法上的认知控制能力及受刑能力,因此对其予以自由限制没有实际意义,法律责任更多施加在技术人员身上。
综上所述,现阶段生成式AI驱动型“数字人”主播并不能成为法律主体。然而,需要说明的是,技术的发展日新月异,对于生成式AI驱动型“数字人”主播的主体地位的认定,我们有必要持开放的态度。如果科技的发展使生成式AI能够具有和人类相近的智能,那么,对于“数字人”主播主体资格的讨论则会有新的发展。
四、生成式AI“数字人”主播法律规制:当下实践与主体地位新考量
(一)当前实践:以法律客体的标准衡量
1.采用一般侵权责任规则归责。当前,司法实践中涉及生成式AI侵权的案件裁决中,法院首先会将生成式AI认定为不具有主体资格的辅助工具,再判断法律责任的归属。从理论上来说,生成式AI的侵权责任判断分为产品责任和一般侵权责任两种路径。但是,在2023年7月正式颁布的《生成式人工智能服务管理暂行办法》中使用了“生成式AI服务”概念,将其明确地定义为服务。因此在此我们只探讨一般侵权责任规则。
一般侵权责任通常指过错责任,由原告承担关于被告过错的举证责任。然而,生成式AI的系统非常复杂,如果观看直播的普通社会公众想证明“数字人”主播在设计上有缺陷或者技术提供者有过失,是十分困难的事情。所以在我国的司法诉讼环境下,通过立法规定,采取过错推定的原则,将举证责任转移至对算法和相关技术专业性更强的被告,由法院来对人工智能提供者是否有过错作出最终的司法认定,更为合理。
2.适用包容审慎原则。2023年《生成式人工智能服务管理暂行办法》第三条规定的包容审慎原则需要贯彻到人工智能治理的具体制度设计之中。对于新技术创新中的风险应进行利益衡量,合理分配责任。在权利和义务的分配上,不应对生成式AI服务提供者施加过重义务,在纠纷发生时应明确界定相关法律责任。若服务提供者已经全面履行义务,损害由用户个人原因产生,则由用户单独承担责任;若服务提供者未全面履行义务,损害由人工智能本身产生,服务提供者须就未履行的义务承担责任。
3.具体分析特定场景下的治理路径。在不同的应用场景中,生成式AI的风险大不相同。就“数字人”主播的应用而言,若从事的直播对个人权益或社会公共利益有重大影响,或者是在重要的互联网平台提供服务、观众数量巨大时,可以被认定为高风险应用场景。此时,不仅需要持续进行风险影响评估以准确识别风险,还需要充分保证全过程监督。
(二)未来可能:考虑成为法律主体的趋势
在“数字人”的研究和立法司法实践方面,欧盟一直走在国际前沿。如果未来生成式AI驱动型“数字人”主播有成为法律主体的可能性,我国可以借鉴欧盟经验对其进行规制。早在2017年,欧盟欧洲议会决议通过了《欧洲机器人技术民事法律规则》这一前瞻性法律规则决议。该规则表明,人工智能在自我意志和智能性方面,存在着超越人类智力和能力水平的可能,而人工智能的应用也会产生新的责任认定问题,需要制定新的归责原则。此外,规则建议赋予最复杂、自主能力最高的智能机器人“电子人格”,针对机器人的设计者、生产者、操控者在欧盟范围内建立一个专门针对高级智能机器人的登记制度,由专门的机构进行管理。在赋予智能机器人电子人格的同时,进而提出了包括尊重人类自主性、公平性、避免伤害原则等伦理原则,使电子人格与自然人人格更好地衔接和融合。类比至生成式AI驱动型“数字人”主播,若其有契机拥有主体资格,应在坚持尊重人类的前提下,准确做好登记,设立相关机构从“设计—生产—操控”进行全过程监管,在发生侵权纠纷时厘清各主体责任。(东南大学法学院 徐铭遥)
参考文献
[1] 简圣宇:《“虚拟数字人”概念:内涵、前景及技术瓶颈》,载《上海师范大学学报(哲学社会科学版)》2023年第4期,第45-57页。
[2] 韩旭至:《生成式人工智能治理的逻辑更新与路径优化——以人机关系为视角》,载《行政法学研究》2023年第6期,第30-42页。
[3] 金庚星:《媒介即模型:“人—ChatGPT”共生自主系统的智能涌现》,载《学术界》2023年第4期,第72-79页。
[4] 成素梅、张帆:《人工智能的哲学问题》,上海人民出版社2019年版,第84页。
[5] 李白杨、白云、詹希旎等:《人工智能生成内容(AIGC)的技术特征与形态演进》,载《图书情报知识》2023年第1期,第66-74页。
[6] 范进学:《人工智能法律主体论:现在与未来》,载《政法论丛》2022年第3期,第3-17页。
[7] 张玉洁、潘妍:《元宇宙治理视域下虚拟社会的潜在风险及法律风险》,载《阅江学刊》2022 年第 5 期,第72-79+174页。
[8] 刘练军:《人工智能法律主体论的法理反思》,载《现代法学》2021年第4期,第73-88页。
[9] 周学峰:《生成式人工智能侵权责任探析》,载《比较法研究》2023年第4期,第117-131页。
[10] 孙犀铭:《论民事行为能力的二元评价体系》,载《法制与社会发展》2024年第3期,第119-136页。
[11] 孔祥稳:《面向人工智能风险的行政规制革新——以自动驾驶汽车的行政规制为中心而展开》,载《行政法学研究》2020年第4期,第18-33页。
【本文刊载于《人民法治》杂志2025年4月下(总第200期) 法治新知栏目】
