星空体育郑志峰:人工智能产品责任的立法更新 法律科学202404
栏目:公司动态 发布时间:2024-07-09
 星空体育郑志峰:人工智能产品责任的立法更新 法律科学202404【来源】 北宝法学期刊库 《法律科学》2024年第4期 (文末附本期期刊目录) 。因篇幅较长,已略去原文注释。  内容提要:我国《人工智能法》的制定程序应当与《产品质量法》的修订程序同步启动,以确保人工智能产品安全与产品责任的规则相协调。有形性并非判断人工智能产品的标准,人工智能输出信息具有成为产品的可能,而人工智能产品与服务的区

  星空体育郑志峰:人工智能产品责任的立法更新 法律科学202404【来源】 北宝法学期刊库 《法律科学》2024年第4期 (文末附本期期刊目录) 。因篇幅较长,已略去原文注释。

  内容提要:我国《人工智能法》的制定程序应当与《产品质量法》的修订程序同步启动,以确保人工智能产品安全与产品责任的规则相协调。有形性并非判断人工智能产品的标准,人工智能输出信息具有成为产品的可能,而人工智能产品与服务的区分则需要进行类型化判定。在产品缺陷的判断上,技术性标准的制定应当特别考量人工智能产品的新安全需求,对不合理危险的认定则需要综合产品说明、其他产品的影响、自主学习、升级更新等主客观因素。因果关系的认定需要区分辅助型与替代型人工智能,合理判断人工智能自主行为与使用人行为是否构成替代原因,同时引入因果关系推定规则。在免责事由方面,后期缺陷抗辩规则的适用需要考虑人工智能产品的升级更新、自主学习的特点,对发展风险抗辩规则的适用宜通过区分不同风险的人工智能、设置跟踪观察义务等方式进行限制,但没有必要创设单独的开源抗辩规则。

  目次 一、问题的提出 二、人工智能产品的识别 三、人工智能产品责任构成要件的认定 四、人工智能产品责任免责事由的设置 五、结语

  当前,人工智能治理已经进入大规模统一立法的新阶段。人工智能的侵权责任是人工智能立法的重要内容,也是理论和实务界都重点关注的课题。面对人工智能带来的侵权责任挑战,学界普遍认为产品责任制度是解决人工智能产品责任问题的重要制度工具。一方面,从历史视角看,产品责任对于新兴科技具有天然的适用性,可以很好地分散科技创新带来的风险,保护消费者的人身财产安全。另一方面,随着人工智能技术日益智能化,其需要人类干预或者参与的程度会越来越低,产品缺陷致损事件的数量会逐步增加,产品责任将扮演更为重要的角色。然而,与传统产品相比,人工智能产品的自我学习能力较强,具有自主性、专业性、复杂性、不透明性等诸多新特点,使得更新一套能够适应人工智能技术发展的产品责任立法就显得至关重要。

  欧盟高度关注人工智能产品责任问题,始终将之作为人工智能立法的重要内容。早在2018年,欧盟委员会成立了产品责任指令组,负责详细地评估欧盟《产品责任指令》在人工智能环境中适用的可行性。2022年9月,欧盟委员会通过了《关于缺陷产品责任的指令的提案》,该指令扩大了产品的范围,化解了产品缺陷和因果关系的认定难题,丰富了抗辩事由,全方位更新了产品责任规则,以迎接人工智能时代的到来。2024年5月,欧盟理事会正式批准《人工智能法》,为人工智能的风险监管提供了基础规则。虽然欧盟主要通过新《关于缺陷产品责任的指令的提案》来规制人工智能的产品责任,欧盟《人工智能法》本身并未直接涉及人工智能的产品责任问题,但两者并非毫无关系。恰恰相反,欧盟《关于缺陷产品责任的指令的提案》与《人工智能法》可以视为一个硬币的两面。一方面,从功能层面看,欧盟《人工智能法》旨在从前端设定产品安全要求,确保只有安全的人工智能产品才能进入欧盟内部市场。而当人工智能产品存在缺陷并导致损害时,就需要适用《关于缺陷产品责任的指令的提案》,从后端分配产品责任。另一方面,从规范层面看,欧盟《人工智能法》与《关于缺陷产品的责任的指令的提案》存在诸多关联。例如,欧盟《人工智能法》中的人工智能系统构成《关于缺陷产品责任的指令的提案》中的产品;《人工智能法》所指的人工智能系统提供者,可被视为《关于缺陷产品责任的指令的提案》中的制造商;未遵守《人工智能法》关于人工智能系统的强制性安全规定的人工智能系统,会被《关于缺陷产品责任的指令的提案》推定为存在缺陷等。

  在国内立法方面,《国务院2023年度立法工作计划》提出“预备提请全国会审议人工智能法草案”的计划,《国务院2024年度立法工作计划》再次明确这一点,标志着我国迎来了人工智能集中立法的契机。随后,我国学者迅速提出了两部人工智能法建议稿,一部是由中国社会科学院牵头起草的《人工智能示范法(专家建议稿)》,一部是由中国政法大学等机构的学者们共同撰写的《人工智能法(学者建议稿)》,二者都对人工智能侵权责任做了规定,看到了产品责任与人工智能法的内在关联。例如,两部人工智能法建议稿都使用了“人工智能产品”与“人工智能服务”的概念,基本形成了产品与服务两分的调整框架,使人工智能产品的识别变得至关重要。再比如,《人工智能法(学者建议稿)》第88条专门就人工智能产品缺陷致害的责任做了规定,为产品责任制度的适用留下接口。与此同时,2023年10月,市场监管总局组织对《产品质量法》进行修订,发布《产品质量法(公开征求意见稿)》向社会公开征求意见。但遗憾的是,公开征求意见稿并未很好地回应人工智能、数字经济的发展需求,有关产品责任的规定并不完善。

  考虑到产品责任与人工智能立法的密切关系,我国应当协同推进《人工智能法》的制定程序与《产品质量法》的修订程序,合理安排人工智能产品责任规则的更新问题。基于此,本文针对人工智能产品责任的立法更新进行研究,重点探讨三个问题:一是人工智能产品的识别问题,旨在解决人工智能软件的性质、人工智能输出信息的界定、人工智能产品与服务的区分等难题;二是人工智能产品责任构成要件的更新问题,以构建一套人工智能产品缺陷与因果关系认定的判断规则;三是人工智能免责事由的配置问题,本文通过逐一检视后期缺陷抗辩、发展风险抗辩、开源抗辩等事由,以期为我国《产品质量法》的修订以及《人工智能法》的制定提供参考。

  科学技术的发展不断挑战着现有的法律概念,这些概念迅速准确地回应挑战,具有重要的社会经济意义。对于产品责任来说,人工智能产品的识别至关重要,这不仅是适用产品责任的前提,也关系到《人工智能法》诸多条款的制定与适用。

  1.产品有形与无形的争议。传统产品责任法中的产品概念以有形动产为模板,强调产品的物质属性,有形性成为产品的重要判断标准。例如,美国《侵权法第三次重述:产品责任》第19条规定:“产品是经过商业性销售以供使用或消费的有形动产”。1985年欧盟《产品责任指令》第2条将产品定义为“所有动产,即使其存在于另一个动产或不动产中,但初级农产品和狩猎产品除外”。与此同时,根据我国《产品质量法》第2条的规定,产品是指经过加工、制作用于销售的产品。虽然法律没有明确将产品的表现形式限定为有形动产,但理论界一般认为产品主要指的是有体物。

  随着社会经济的发展,无体物作为财产登上历史舞台,这对传统产品的概念提出了挑战。其中,最典型的例子就是软件。美国法院倾向于认为软件不属于产品。例如,在一个案件中,原告声称其沉迷于“在线视频游戏”以及购买“游戏货币”导致了其经济损失,对此向被告主张产品责任赔偿,原告认为该游戏存在“不公平做法和作弊的行为,并试图引发用户成瘾等”;对此,法院认为,在线游戏不受华盛顿产品责任法的约束,因为游戏是软件,不是产品责任规制的“对象”。在欧盟方面,有观点指出,有形性是用于确定欧盟《产品责任指令》是否适用的中心概念。软件中的硬件部分当然会被视为产品,集成到有形产品中的软件也会被视为产品。然而,对于独立软件,介质成为决定性因素:如果软件存储在有形介质上,如DVD或者闪存盘,那么它有资格作为产品;反之,如果软件是通过云服务下载的,那么其能否适用欧盟《产品责任指令》则是存疑的。

  对于人工智能来说,其最终呈现的形式可能是有物理载体的有体物,也可能是软件等无体物。对于具有物理载体的人工智能应用,如自动驾驶汽车、人形机器人等,其当然属于产品的范畴。而对于软件形式的人工智能应用,特别是通过云服务下载的程序、在平台中使用的算法等,实践中对其是否属于产品的认定较为困难。例如,国家药品监督管理局批准的几款人工智能辅助诊断软件,一般仅包含客户端软件和服务器端软件,并不包括硬件部分,其是否可以构成产品不无疑问。再比如,在一起案件中,原告主张被告应当就使用的算法缺陷承担产品责任,认为算法“决定了在平台上观看的内容”,并生成了“无休止的提醒,诱导儿童成瘾”,如果没有这些算法,“即使社交平台和应用程序上保留相同的内容,原告也不会受到伤害”。对此,就需要立法明确算法是否构成产品。

  2.人工智能产品的有形与无形。有形与否并非产品的本质特征,不能简单地认为人工智能系统、算法、程序等软件就是无形的,进而将之排除在产品范围之外。

  首先,产品与有形动产之间并不等同。我国《产品质量法》没有要求产品必须是有形动产,相反,相关法律法规明确将软件作为产品对待。例如,根据我国《医疗器械监督管理条例》第103条规定,医疗器械是指直接或者间接用于的仪器、设备、器具、体外诊断试剂及校准物、材料以及其他类似或者相关的物品,包括所需要的计算机软件。而医疗器械属于我国《民法典》第1223条明确列举的三种医疗产品之一。域外立法虽然强调产品的有形性,但普遍认为电力属于产品。有观点指出,算法比无形的电力更加稳健,更适合作为产品。与电力被动进入用户电表不同,算法往往是受用户主动邀请进入用户使用的网络设备并被用于处理数据。

  其次,人工智能软件具有有形性。虽然软件通常被定义为能够使具有信息处理能力的机器指示、执行或实现特定功能、任务或结果的一组指令,但这些指令总是以这样或那样的形式被具体化地表达出来,它们一旦离开程序员的大脑,就不再是纯粹的信息。软件虽可能超出了人类的感知范围,但并不意味着它没有物质实体。一方面,人工智能软件可以以光盘、存储芯片甚至是电磁记录等方式存在,这些介质本身就是物质实体。另一方面,当人工智能软件被引入到适当的硬件时,它将在周围的世界中引发有形的变化。如果你把游戏软件放进电脑,那么它将为你呈现有形的和互动的图像与声音。如果黑客将恶意软件植入一个国家的电网,那么它可能导致电力瘫痪等严重的后果。因此,人工智能软件也有有形的一面。

  最后,数字社会的发展需要将无形物视作“产品”星空体育官方app下载。产品的表现形式从有形动产扩展至无形财产,符合产品责任法的发展规律。随着数字社会的到来,操作系统、固件、计算机程序、应用程序或人工智能系统等软件在市场上越来越常见,在产品安全方面发挥着越来越重要的作用。从消费者的角度而言,将软件视为产品可鼓励生产者进行充分的检测,以阻止有缺陷的软件投入市场。产品的本质属性并非有形或无形,而在于其批量生产、规模销售带来的社会效益,软件的无形性特征并不构成其适用产品责任的障碍。相反,如果坚持认为软件是无形的,只有通过介质才能使其成为一种产品,那么就会产生奇怪的后果:有介质的软件造成损害可以适用产品责任,而没有介质的软件造成损害却不能适用产品责任。从受害者的角度看,这种区别很难被证明是合理的,也会导致生产者有变相逃避产品责任的可能。基于此,欧盟《关于缺陷产品责任的指令的提案》做了大胆的革新,明确规定数字时代的产品可以是有体的,也可以是无体的,人工智能软件可以作为产品。

  1.产品介质与信息的区分。传统产品责任法理论将产品的范围局限于有体物,强调产品的介质,而介质所承载的思想、信息等不能作为产品。其中,最典型的例子是书籍出版物中的信息。

  域外法院几乎一致拒绝对危险性虚假信息的出版物适用产品责任。例如,一位蘑菇爱好者信赖了由被告出版的《蘑菇百科》一书中的信息,采摘并食用了某种蘑菇导致其身患重病。对此,美国法院认为,书籍中的信息构成观点而非产品,并解释了出版物有形和无形部分的区别:一本包含莎士比亚十四行诗的书由两部分组成,物质与其中的印刷以及其中的观点与表达,前者可能是一件产品,但后者不是,产品责任法适用于有形世界。欧洲国家也发生过因为读者信任出版的关于可食水果和植物实用指南的书籍而引发食用中毒的案件。对此,法院同样拒绝适用产品责任。以此类推,法院拒绝了针对液态饮食书籍、医学教科书、旅游向导、金属锻造书籍以及其他出版物出版商的诉讼。

  这种介质与信息两分的理念很快被应用在了软件上。即使承认软件是有形的,光盘、存储芯片甚至电磁记录也可以作为一种特殊的介质,但软件传递的信息或者内容是无形的,该部分不适用产品责任。例如,在一个网络游戏的案件中,美国法院认为,尽管计算机源代码和程序在税收领域被解释为“有形财产”,在美国《统一商法典》中被解释为“货物”,但这些分类并不表明计算机视频游戏、电影或互联网材料中包含的思想、想法和信息应被视为适用严格责任的产品。同理,法院拒绝将网站、社交媒体认定为产品,认为网站、社交媒体不符合产品系有形动产的定义,造成损害的并非网站、社交媒体本身,而是它们所包含的错误、不良信息。

  人工智能常常被用于为用户提供决策、建议、预测等信息内容,如生成式人工智能、人工智能辅助诊断软件、聊天机器人等,其能否构成产品不无疑问。在2020年的罗杰斯案中,原告主张当地的州法院使用了一款用于评估假释风险的公共安全评估系统,批准了一名入狱男子的假释请求,结果几天后该男子杀害了原告的儿子;对此,美国第三巡回上诉法院认为,使用“多因素风险估计模型”来评估刑事被告是否应在审判前释放的公共安全评估系统不是新泽西州产品责任法中的“产品”,因为其不是商业发行的,而是被设计为“客观的、标准化的和……经验风险评估工具”,用于审前服务计划,而“信息、指导、想法和建议”不能成为美国《侵权法第三次重述:产品责任》中的产品。

  2.人工智能介质与信息的认识。以有体物为中心的近代法、现代法,都没有为信息设定恰当的位置,但是多媒体和数字技术等所代表的信息科学、信息工程学不可避免地在相当大的范围内对未来的法形成强烈的冲击。人工智能是一种模拟人类智能的技术,能够从其接收的输入信息中推断如何生成可影响物理或虚拟环境的输出,如预测、内容、建议或决定。笔者认为,人工智能的介质部分固然可以归入产品范畴,但一刀切地将人工智能输出信息排除在产品责任之外也不合理。

  首先,对于信息适用产品责任存在先例。信息虽然不同于介质,但并非一概不适用产品责任。事实上,信息产品的质量问题早就引起了人们的注意。早在1786年,法国议会主席就规定地理地图应当由地图制图员、雕刻师甚至是独立单位来制作,出版前必须在内阁所属各部之间进行传阅,以保障地理地图的可信度和准确度。在美国,产品责任可适用于地图、航海图中的错误信息。在一个案件中,一架飞机在接近内华达州拉斯维加斯时坠毁,机上乘客全部遇难,经过调查发现原因是飞行员在驾驶时依赖了被告出版的进场图;对此,美国法院明确驳回被告关于进场图不构成产品的主张。英国也发生过一起著名的“课本事故”,由于一本化学教科书将两种化学元素之间的比例标印错误,使学生在操作实验时引发了严重的爆炸事故,英国法院对该案同样适用了产品责任。

  其次,人工智能输出信息适用产品责任具有必要性。对于人工智能来说,介质可能因存在缺陷而造成损害,信息本身也可能因存在缺陷而造成损害。例如,对于人工智能软件,我们很难想象其介质(如磁盘、电磁记录)会导致损害,因为介质部分通常不具有任何危险属性,更有可能是介质内容(即软件中包含的信息)的应用导致损害。随着数字技术的广泛应用,信息将在消费者的生活中发挥越来越大的作用,法院将越来越频繁地解决缺陷信息导致损害的案件。在许多情况下,消费者购买或者使用人工智能的目的在于获取算法系统输出的决策、建议、预测等信息,以此作为开展某些活动的指导或者依据,故消费者理应有权期待获取的信息是安全的。此外,信息与介质也无法完全区分,因为信息本身必须借助某种介质存在,否则就是纯粹的主观思想,故以无形性为理由将信息排除在产品之外的做法并不合适。

  最后,人工智能输出信息适用产品责任并不必然危及言论自由。相较于产品是有形还是无形的问题,信息适用产品责任最大的障碍是言论自由的保护。有学者指出,信息所表达的精神性内容大多属于思想或言论范畴,在法律上对一种思想或言论进行安全性判断,已经超出了“产品缺陷”的固有含义。这种观点值得商榷。一方面,对于出版物、软件、网站等传统信息产品,信息内容的生产主体一般为自然人。而人工智能可以不受人类的干预自主输出信息内容,与自然人之间的关联度大幅降低,保护人工智能生成内容的“言论自由”的正当性也随之下降。有观点就指出,生成式人工智能根本不受美国宪法第一修正案的保护,因为它不是人类。另一方面,人工智能输出的信息类型是多样的,可以是纯粹表达文化思想、体现言论自由的文化信息,也可能是旨在提供一种实用性能或技术方案的技术信息。例如,生成式人工智能可以输出日常生活、艺术作品等主题的文化信息,一般不适用产品责任。与之不同的是,人工智能辅助诊断软件输出的是一种技术信息,旨在为医务人员或者患者提供诊疗活动的专业指导,在功能上与有形的工具产品没有区别,理当适用产品责任。总之,产品责任制度本质上是一种政策驱动的法律体系,法院应当捍卫产品责任制度的目标,同时保持思想的自由交流。

  顾名思义,产品责任只适用于产品,而排除服务的适用。美国《侵权法第三次重述:产品责任》第19条规定:“服务,即使是商业性提供的,也不是产品。”欧盟法院也明确指出,服务提供者的责任不属于《产品责任指令》的适用范围。区分产品与服务的关键原因在于两者适用的侵权责任规则不同。从域外立法来看,除巴西等认为服务侵权应适用无过错责任之外,目前绝大多数国家或地区都认为服务侵权宜适用过错责任或者过错推定责任。同时,服务侵权不存在产品缺陷的问题。对于人工智能来说,产品与服务的区分难题主要表现为三种情形,需要分别讨论。

  1.人工智能产品包含服务的情形。人工智能产品包含服务的情形越来越多,此时服务的存在是否会改变产品的性质不无疑问。例如,自动驾驶汽车的运行除了需要各种硬件、软件的支持外,还依赖于各种服务,包括软件升级服务、高精地图导航服务、车联网服务等。服务本身是为了产品功能的实现,并不会改变产品的性质,相反,产品与服务应当共同适用产品责任。首先,服务类似于人工智能产品的零部件,是产品的组成部分,产品的整体属性仍然存在。其次,法律区分产品与服务的重要原因在于,产品具有批量生产、规模销售的特点,生产者承担产品责任后可以通过价格机制分散其风险。对于人工智能产品包含服务的情形,生产者并没有因为服务的存在而改变产品批量生产、规模销售的特点,生产者的风险控制与分散能力依然强大,具有适用产品责任的基础。最后,人工智能产品包含服务的情形日益普遍,人工智能产品与服务共同适用产品责任具有必要性。欧盟《关于缺陷产品责任的指令的提案》明确指出:“数字服务集成到产品中或与产品互联的情况越来越普遍,如果没有这种服务,产品就无法发挥其特定功能。虽然本指令不应适用于服务本身,但有必要将无过错责任的适用扩张到此类数字服务,因为此类服务与物理或数字组件一样决定着产品的安全性。”考虑到数字时代的产品对于服务具有依赖性,因此立法有必要推动人工智能产品和服务共同适用产品责任。

  2.服务中使用产品的情形。许多服务活动需要使用产品进行辅助,立法需要明确此时是否有适用产品责任的空间。在确定产品责任是否适用于混合买卖服务的交易时,美国法院一般会通过寻求交易的“本质”来确定到底是买卖还是服务占据交易的主导地位,进而决定是否对其适用产品责任。实践中,对医院以及其他医疗服务提供者,或者建筑师、工程师以及其他设计专业人员为提供专业服务而造成损害的情形,美国法院普遍拒绝对其适用产品责任。我国也有学者指出,在医疗服务过程中,医疗产品的使用行为应在整体上被定性为一种“服务”,而非产品“销售”,从而适用医疗损害赔偿法中的过错责任,而不适用产品责任法的无过错责任或严格责任。在服务中使用人工智能产品的场合,虽然服务活动在其中占据主导位置,但只要能够确定损害是因为人工智能产品缺陷造成的,法院就应当对其适用产品责任。一方面,产品责任并未限定产品的使用方式,不能因为人工智能产品在服务中被使用就排除其适用产品责任的可能。例如,我国《民法典》第1223条就明确规定,在医疗活动中使用医疗产品造成损害的,受害人可以请求生产者、医疗机构承担产品责任,这当然适用于医疗人工智能产品造成损害的情形。对此,欧盟法院在近期的司法裁判中也持类似观点,主张医疗活动中使用的人工智能软件属于医疗器械,可以对其适用产品责任。另一方面,虽然产品的使用是为了服务的开展,但并不代表产品本身无足轻重。接受服务的一方对于产品的安全有一个合理的期待,当产品存在缺陷造成损害时理应对其适用产品责任。欧盟《一般产品安全条例》明确指出:“为了保护消费者的健康和安全,在提供服务的背景下向消费者提供或提供给消费者的产品,包括消费者在提供服务过程中直接接触的产品,应属于本条例的适用范围。”

  3.使用人工智能软件中的情形。对于人工智能软件到底属于产品还是服务,学界存在不同的观点。有观点认为,应将软件分为普通软件和专门软件,前者属于产品,后者属于服务。有学者则建议通过软件的功能进行区分,如果软件提供了人类可能实施的服务,如投资咨询,那么该软件属于服务,如果软件仅提供常规数据分析,那么该软件属于产品。有观点坚持以有形与无形为标准进行区分,认为基于云服务的人工智能软件很可能被视为一种服务。为了解决这一问题,欧盟《关于缺陷产品责任的指令的提案》做了大胆的探索,明确指出:“为了法律的安定性,应明确软件是适用无过错责任的产品,无论其供应或使用方式为何,也无论软件是存储在设备上、通过通信网络或云技术访问,还是通过软件即服务模式提供”。欧盟《关于缺陷产品责任的指令的提案》将所有软件与产品等同对待,排除其作为服务的可能。笔者认为,这种观点值得商榷。软件可能构成服务,也可能构成产品,关键在于对软件提供活动的性质的判断,即某类软件是否符合产品批量生产、规模销售的特点,生产者与受害人之间信息不对称的严重程度,对该类软件是否具有适用无过错责任的必要。例如,对于人工智能辅助诊断软件,考虑到软件本身可以批量生产、规模销售,生产者的风险控制与分散能力很强,患者直接证明生产者存在过错的难度极大,故将其作为产品更加合适。至于生成式人工智能,我国《生成式人工智能服务管理暂行办法》明确将其界定为一种服务。

  将生成式人工智能一概归入服务范畴的做法也有不妥之处。一方面,生成式人工智能作为一种软件,具有批量生产、规模销售的特点,其每个版本的技术特点基本是稳定的,面向的是不特定的用户,并非提供一对一的定务。虽然用户的需求是个性化的,但生成式人工智能的生成结果有相对的可控性。提供者提供的并非持续的个性化服务,其主要目的是维护和提升生成式人工智能的版本性能。另一方面,提供者在获得经济回报方面与销售产品并无不同,也可以通过提升定价来迅速分散风险,同时受害人要举证证明提供者存在过错并不容易。因此,生成式人工智能具备成为产品的可能。当然,这并不意味着提供生成式人工智能的活动必然适用产品责任,还需要考虑技术的具体用途。如果提供者将生成式人工智能用于生成诗歌、日常问答等,那么该行为一般不适用产品责任。反之,如果提供者将生成式人工智能应用于医疗、导航等专业领域,提供的是技术信息,那么该行为具有适用产品责任的可能。

  产品责任适用无过错责任原则,构成要件的核心是产品缺陷与因果关系。对于人工智能产品来说,无论是产品缺陷的认定,还是因果关系的证明,都需要立法更新认定标准。

  1.人工智能产品缺陷的认定难题。产品缺陷是构成产品责任的核心要件。通常来说,产品缺陷包括制造缺陷、设计缺陷、警示缺陷三种。其中,设计缺陷被认为是人工智能产品缺陷中最为重要和最难认定的类型。根据我国《产品质量法》第46条的规定,缺陷的判断标准包括不合理危险与技术性标准两类。对于人工智能产品来说,产品缺陷的认定并非易事。

  第一,技术性标准的失灵。首先,人工智能产品日新月异,更新迭代常常只在朝夕,而国家标准、行业标准的出台存在制定成本高、程序烦琐、滞后性等特点,想要借助技术性标准来认定人工智能产品缺陷并不容易。其次,产品的安全场景存在已知安全、未知安全、已知危险与未知危险四种,技术性标准通常仅针对已知危险,对于未知危险的适用性有限。相较于传统产品,人工智能具有自主性和自我学习的能力,加上受到数据输入、算法黑箱、网络安全、运行环境等各种因素的影响,人工智能产品具有更强的不可预测性和更多的未知风险,这给技术性标准的制定带来了挑战。再次,传统产品在性能上具有相当程度的稳定性,在投入流通后通常不需要生产者提供持续的服务。与之不同的是,人工智能产品高度依赖服务的持续升级和更新,导致产品的安全评价范围从产品的前端变为产品的整个生命周期,进一步增加了技术性标准的制定难度。最后,人工智能产品更加复杂,不仅包括硬件模块,还包括算法、数据、网络等软件模块,其不仅强调功能安全,还关注网络与数据安全、伦理安全等。技术性标准对于硬件等功能安全具有很强的适用性,但对于软件部分的适用性、其他安全需求的回应相对有限。例如,立法很难针对人工智能产品中的算法模块确立一个统一的标准,不同企业总是使用不同的方式进行算法编程,严格的技术性标准可能会阻碍创新。

  第二,合理期待标准的适用困境。我国《民法典》《产品质量法》并未明确判断不合理危险的标准。对此,许多学者都提到了域外法中的合理期待标准,认为其可以减轻受害人证明人工智能产品缺陷的压力。合理期待标准强调将产品安全与人们的合理期待进行对比,产品安全没有达到人们的合理期待即存在缺陷。欧盟《产品责任指令》第6条就确立了合理期待标准,规定如果产品不具备人们合理预期的安全性,则该产品存在缺陷。实践中对人工智能产品适用合理期待标准存在诸多困境。一方面,合理期待标准要求人们对于产品安全具有合理的认识,通常适用于日常生活中常见的“简单产品”。然而,人工智能产品作为一种新兴科技的“复杂产品”,人们很难了解其运行机制,许多时候会产生不切实际的期待。另一方面,学界对合理期待标准究竟是依据谁的合理期待为据来确定存在争议。例如,医务人员使用人工智能辅助诊断软件造成损害,受害人究竟是依据医务人员的合理期待还是自己的合理期待做判断不无疑问。有观点指出,所有的合理期待测试都有一个共同的属性,那就是在复杂的案件中,合理期待标准都是含糊不清的。正是基于此,美国《侵权法第三次重述:产品责任》改变了此前的做法,不再将合理期待标准作为一项独立的判断标准,而仅作为风险效用分析的一个因素。

  第三,风险效用标准的适用难题。风险效用标准强调对产品的安全设计进行成本与效应的比较分析,核心是判断是否存在更好的替代设计。如果受害人能够举证存在更好的替代设计方案,那么应认为产品存在缺陷。例如,美国《侵权法第三次重述:产品责任》就引入了风险效用标准。有观点指出,相较于合理期待标准,风险效用标准属于一种定量分析,不是非此即彼的判断标准,而是对人工智能产品设计方案的综合考察,具有更强的可操作性,更适合用于对人工智能产品缺陷的判断。然而,这种测试方法最大的问题在于过分苛责受害人。与传统产品相比,人工智能产品的构成更加专业、复杂和不透明,受害人对于产品技术原理的了解更少。在此种情况下,要求受害人举证证明人工智能产品是否存在更加合理的替代设计无疑是强人所难。而考虑到人工智能产品运行机制的不透明性,加之数据和算法普遍不开源的商业环境,受害人即使借助专业人士,也很难完成举证。

  第一,丰富技术性标准的安全内涵。技术性标准虽然存在诸多不足,但作为判断人工智能产品缺陷的初步标准依然是有必要的。与传统产品相比,人工智能产品具有更强的不可预测性,但仍然具有相对的稳定性和可控性,未知风险的存在并不足以排除技术性标准的适用。与此同时,技术性标准的制定需要融入人工智能风险治理的基因,全面回应未来《人工智能法》有关人工智能安全监管的需求。在此基础上,技术性标准需要反映人工智能产品新的安全需求,至少包括两个方面的需求。一是网络与数据安全。人工智能产品的运行离不开网络与数据的支持,随之而来的却是网络故障、网络攻击、数据泄露事件的大量发生。为此,技术性标准的制定需要特别关注人工智能产品的网络与数据安全。二是伦理安全。以电车难题为例,面对不可避免的碰撞事故,如果自动驾驶系统以人数、性别、种族、收入、年龄等作为选择的依据,那么即使最终其将损害降到最低,也可能因为伦理问题而不被公众接受。对此,2021年德国《自动驾驶法案》第1e条第2款第2项就要求自动驾驶系统必须配备事故避免系统,“在对人类生命的危害无法避免时,不得根据个人特征预先规定其他的权重”。我国《人工智能法(学者建议稿)》第75条第2款也规定:“自动驾驶汽车开发者、提供者应当确保车辆安全,在车辆发生危险时,不得对其他交通参与者进行不合理的差别对待。”

  第二,细化不合理危险的判断标准。从域外立法来看,产品缺陷判断的总体趋势是不断融合合理期待标准与风险效用标准。为了让人工智能产品的生产者有一个更加合理的参考标准,未来我国修订《产品质量法》时应当明确产品缺陷的综合判断路径。其中,对于人工智能产品缺陷的判断而言,比较重要的因素包括:(1)产品的说明。相较于通过设计改善产品的安全性能,生产者通过产品说明等警示义务的履行来增加产品安全是一种更加简单、有效以及低成本的方式。人工智能产品并非开盒即用的简单产品,需要重点说明如下事项,以帮助使用人合理使用产品:一是人工智能产品与传统产品的差异,如自动驾驶汽车与传统汽车在使用、操作上的区别;二是功能局限、潜在风险,如人形机器人和人工智能辅助诊断软件的运行范围、运行风险等,使用人是否对人工智能产品负有监督、接管义务等,以便确定人们对于产品安全的合理期待范围。(2)其他产品的影响。人工智能产品具有模块化、网联化的特征,常常需要与其他产品互联使用,故需要特别考虑其他产品对于人工智能产品的影响。欧盟《一般产品安全条例》规定:“连接到其他物品的物品或影响其他物品工作方式的非嵌入物品可能会对产品的安全构成风险。这一方面应作为潜在风险予以适当考虑。物品与外部物品可能具有的联系和相互关系不应危及其安全。”对于人工智能产品来说,需要特别考量与其他产品互联使用产生的数据、网络等安全风险。(3)自主学习能力。人工智能产品具有自主学习的能力,在投入市场后性能会发生一定的变化,对其产品缺陷的说明需要将可预见的自主学习产生的安全风险考虑在内。(4)升级更新。人工智能产品离不开提供者持续提供软件和服务,这就涉及产品的升级更新问题。对于人工智能产品来说,如果生产者未能提供持续的升级更新服务,导致了网络安全、数据泄露等问题,应当认定为产品存在缺陷。当然,提供产品的更新升级本身不应得出该产品先前的版本存在缺陷的结论。

  第三,产品缺陷认定的程序规则。除了实体层面,还可以从程序层面缓解产品缺陷的认定难度,降低受害人获得救济的门槛。举证责任倒置对于生产者一方施加了过重的责任,不利于人工智能产业的发展,未来宜从两个方面提高受害人举证的能力。其一,证据开示。受害人举证能力不足的一个重要原因在于信息不对称,人工智能产品具有专业、复杂、不透明的特点,运行数据往往只有生产者一方掌握,故有必要引入证据开示制度。如果受害人提出的事实和证据足以证明其赔偿请求的合理性,那么生产者应当开示其所掌握的相关证据。例如,2021年4月19日,在上海车展中,自称怀孕3个月的车主张女士站在特斯拉展厅的汽车车顶上维权的事件,引起了各方广泛关注。据报道,引发争议的原因在于特斯拉公司拒绝披露事故发生时的汽车数据。对于自动驾驶汽车致损的案件,受害人如果举证其开启了自动驾驶模式、对软件做了及时更新等基本事实,那么其可以请求法院责令生产者开示事故数据,以作出产品是否存在缺陷的认定。当然生产者的证据开示义务必须合乎比例,需要考虑第三方的合法权益,如商业秘密、隐私与个人信息权益保护等。其二,推定规则。对于满足特定条件的情形,法院可以直接推定人工智能产品存在缺陷。我国立法可以参考欧盟《关于缺陷产品责任的指令的提案》第9条以及我国《民法典》第1222条医疗机构过错推定的规则,明确如下可适用过错推定的情形:一是生产者掌握了人工智能产品事故发生的相关证据,但拒绝开示证据。此时,法院有理由推定产品存在缺陷。二是人工智能产品不符合法律法规规定的强制性安全要求。未来我国《人工智能法》应对人工智能产品安全做出诸多规定,包括伦理审查、定期检查和监测、记录日志信息、数据质量、标识义务等。如果受害人能够证明人工智能产品违反了这些强制性的安全要求,那么法院可以推定产品存在缺陷。三是通常情形下损害是由人工智能产品的明显故障造成的。这是侵权法中“事物自道其缘”法理以及“故障原理”的具体适用,即如果事故的具体情形已经非常明显地表明产品存在缺陷,那么法院可以免除受害人的举证责任。

  1.因果关系的认定难题。对于产品责任的证明,除了产品缺陷外,受害人还需要证明因果关系要件。所谓的因果关系,强调的是损害与结果之间的引起与被引起的逻辑关系,包括事实因果关系与法律因果关系。然而,对于人工智能产品而言,因果关系的认定并不容易。

  首先,人工智能产品具有自主性与自我学习能力。人工智能产品具有高度自主性,能够独立于人类的干预自主决策甚至自主行动,直接导致损害的发生。与此同时,人工智能产品具有自我学习能力,能够在投入流通后通过自主学习,改变最初的行为设定。特别是以ChatGPT为代表的生成式人工智能,通过海量数据的“投喂”后,大模型会在某个临界值出现“涌现”现象,模型处理复杂问题的能力和精确度突然大幅提升。这使得损害发生的原因更加复杂,难以判断究竟是人工智能产品缺陷造成了损害,还是人工智能产品的自主行为造成了损害,加剧了因果关系认定的难度。有观点指出,由于自动驾驶汽车等智能机器人具备自主学习能力和适应能力,其“后天的”学习和经历可能成为此类系统造成他人损害的一个替代原因,足以使事实上的侵权行为者免于承担责任。

  其次,人工智能产品具有专业性、复杂性与不透明性。人工智能产品高度专业复杂,这既体现在产品内部所需要的各种零部件、软件、算法、服务中,也离不开产品运行所依赖的外部环境、数据等因素。人工智能产品在投入使用后,通过与环境进行交互而变得越来越复杂,以致线性因果判断方式须让位于复杂的非线性相互作用因果关系判断方式。与此同时,人工智能技术存在不透明性,人们很难了解人工智能产品究竟是如何作出决策和执行决策的,这会产生无法“再现”事故因果关系的风险。这种不透明性并非生产者有意为之,而是天然地内嵌于人工智能技术之中。这种不透明性使得因果关系的证明对普通用户来说可能更为困难。

  最后,人工智能产品应用的多样性。人工智能的应用场景非常丰富,既可能应用于辅助型场景,也可能应用于替代型场景。不同人工智能产品的人机交互情况不同,损害发生的原因也不一样。例如,自动驾驶汽车属于典型的替代型人工智能,机器驾驶取代手动驾驶,人类驾驶员不再参与车辆的驾驶活动,车辆存在产品缺陷通常会直接导致事故的发生。对此,通过适用相当因果关系理论,不难认定产品缺陷与损害之间存在因果关系。与此不同的是,许多人工智能产品仅仅被用于辅助决策,如人工智能辅助诊断软件,机器判断无法直接作用于患者,仅仅是为医务人员提供参考,产品缺陷必须借助医务人员的行为才能转化为现实的损害。这种人机之间错综复杂的关系加剧了因果关系的证明难度,尤其是当人工智能决策和人类监督交织在一起时。

  第一,事实因果关系的认定规则更新。在事实因果关系的认定上,需要区分替代型人工智能与辅助型人工智能。对于替代型人工智能,由于人工智能取代人类直接决策和行动,使用人处于系统外,适用一般的“若非”规则即可。而对于辅助型人工智能,考虑到产品缺陷与损害之间介入了使用人的行为,无法通过“若非”规则来进行判断。此时,可以考虑引入“充分条件之必要因素说”,即如果一个事件能够成为某结果的原因,那么只需它是能够造成该结果的一个充分条件组中的必要要素即可。换言之,是所有先行条件的整体构成了结果发生之充分条件。任何单一因果关系之陈述,均仅构成结果发生之充分条件的所有先行条件之一部分而已。为使构成充分条件之所有先行条件与结果具有不变的关联性,该先行条件必须限于对整体条件之充分性具有必要性之条件。据此,我们需要考察辅助型人工智能对于使用人的最终决策所发挥的作用,以此找出产品缺陷何时构成原因,何时仅仅构成一个条件。如果有缺陷的辅助型人工智能产品输出的信息被使用人完全采信或者部分采信,进而引发损害,那么应当认定产品缺陷与损害之间存在事实因果关系。此时,辅助型人工智能对于使用人的最终判断发挥了实质作用,并且成为最终判断的组成部分,构成导致损害充分条件组中的必要要素。反之,如果使用人的最终决策与辅助型人工智能完全无关,那么辅助型人工智能就不属于充分条件组中的必要要素,产品缺陷与损害之间的事实因果关系就不成立。

  第二,法律因果关系认定规则的更新。对于人工智能产品缺陷导致损害的法律因果关系的认定,可以采取相当因果关系理论,但需要处理介入因素的问题。其一,对于人工智能的自主行为,立法不应当认为其构成替代原因。一方面,当前人工智能尚不具备法律主体的身份,也不具有真正的自由意志,人工智能的自主行为仍然被视为产品性能的具体展示,而非区别人工智能产品之外的独立因素。另一方面,从介入因素本身来看,即使人工智能获得法律主体地位,其行为也在被告可预见的范围内,所谓的不可预测性是一种有意而为之的结果,因而未必能构成替代原因并中断因果关系。其二,使用人的行为。对于人工智能产品,使用人的行为能否构成替代原因需要认真考量。根据侵权法理论,第三人行为是否构成替代原因可以通过可预见性规则来进行判断。介入因素要成为能够免除行为人责任的替代原因,其必须是不可预见的。如果使用人的行为超出了生产者的可预见范围,如使用人明知人工智能辅助诊断软件的判断是错误的仍然采用、明知自动驾驶功能有故障仍然开启,那么法院可以将使用人的行为认定为一种替代原因,产品缺陷与损害之间的因果关系得以中断。反之,如果使用人的行为在生产者的可预见范围内,如开启自动驾驶模式后使用人打盹没有接管或者误操作接管等,那么生产者理当能够预见到这种风险,原则上不中断产品缺陷与损害之间的因果关系。对此,我国《关于开展智能网联汽车准入和上路通行试点工作的通知》指出,对于需要安全员执行接管的自动驾驶汽车,当安全员未能及时响应介入请求时,自动驾驶系统应当执行最小风险策略以达到最小风险状态。

  第三,因果关系认定的难题的化解。人工智能产品的特殊性,导致受害人在证明因果关系方面可能处于不利的地位。如果实行因果关系举证责任倒置会加重生产者的负担,可以参考欧盟《关于缺陷产品责任的指令的提案》第9条的做法,通过特定情形下因果关系推定规则来化解受害人的举证难题。具言之,如果受害人能够证明损害属于典型的与人工智能产品缺陷相符的损害,那么可以推定产品缺陷与损害之间存在因果关系。例如,发生于美国的一个案件中,原告起诉称因汽车缺陷导致了车库起火。法院认为,原告一家出示了足够多的证据,使陪审团相信汽车得到了定期保养和维护,以往该车不存在被滥用或非正常使用的情形,最重要的是,驾驶员在起火时没有错误操作。同时,车库中放置的汽油罐和汽油设备等物品缺乏点火的火源,因此不可能成为引发大火的独立原因。基于此,法院推定是车辆的布线系统缺陷引发了火灾。同样,对于人工智能产品引发的事故,如果受害人证明自己尽到维护保养、软件升级、规范使用等义务,基本排除了其他可能致害的原因,那么法院可以推定损害是因为产品缺陷造成的。此时,应由生产者一方来举证证明产品缺陷与损害之间不存在因果关系。

  产品责任并非绝对责任,主体存在被免责的可能。对于人工智能产品责任来说,需要法律合理配置免责事由。

  根据我国《产品质量法》第41条规定,如果产品投入流通时不存在缺陷,即产品缺陷是在使用过程中产生的,那么生产者可以主张免责。这就是所谓的后期缺陷抗辩(later defect defense),即造成损害的产品缺陷的原因并非生产者。

  对于传统产品来说,产品一旦投入流通,生产者就脱离了对产品的控制,无法对产品进行修改维护、更新升级。因此,产品缺陷必须是在生产者投入流通之前产生的,才能将其归因于生产者。反之,如果产品缺陷产生于投入流通之后,考虑到生产者对于产品已经失去了控制,故立法不应当要求生产者承担责任。然而,人工智能产品是典型的软件驱动型产品,需要持续的升级更新,产品的性能并不是在投入流通时就一成不变的,而是由生产者随后持续提供的升级更新服务所决定的。生产者提供的升级更新服务可能会增强人工智能产品的安全性能,确保产品持续安全可用,但也可能会带来新的缺陷。与此同时,人工智能产品还具有自主学习能力,能够从周围的环境中学习新的技能。如果人工智能学习了一种导致损害的行为,那么产品缺陷既可能是因为产品在投入流通时就存在“缺陷”,也可能是因为产品在投入流通后没有受到良好的“教育”而导致了产品缺陷。然而,无论是什么原因,生产者对于人工智能产品的自主学习能力是可预见的,自然需要生产者采取措施来予以控制。如此一来,后期缺陷抗辩所依赖的控制力理论不再有效,因为即使人工智能产品在投入流通之后,产品仍然处于生产者的控制之下,产品缺陷的产生自然也可以归因于生产者。

  面对人工智能产品的这些特征,欧盟《关于缺陷产品责任的指令的提案》明确指出:“如果产品经过实质性地修改,然后投放市场或投入使用,则视其为新产品。如果实质性修改是通过软件更新升级进行的,或者是由于人工智能系统的不断学习而进行的,那么实质性修改后的产品应当在实质性修改的时点被视为重新投入流通。据此,生产者需要对在投放流通后因其控制范围内的软件或相关服务(无论是升级、更新还是机器学习算法)而产生的缺陷负责。”欧盟《一般产品安全条例》也指出:“通过物理或数字方式对产品进行修改,可能会对产品的性质和特性产生影响,而这种影响在产品的初始风险评估中是没有被预见到的,并可能危及产品的安全性。因此,这种修改应被视为实质性修改。为确保符合本法规规定的一般安全要求,进行重大修改的人应被视为制造商,并承担相同的义务。”

  人工智能产品具有持续升级更新的特点,在对产品投入流通时间点的判断上应当尊重这种特点。如果人工智能产品在初次投入流通后,生产者通过软件升级更新或者人工智能通过自我学习更新,导致产品性能与之前存在实质性修改的,那么应当重新起算产品投入流通的时间点。如果实质性修改是由原生产者实施的或者是在其控制下进行的,并且这种修改使得产品存在缺陷,那么生产者不得主张后期缺陷抗辩。如果实质性修改是由第三方实施的,超出了原生产者的控制范围,由此导致产品存在缺陷的,那么应当由第三方作为新生产者承担责任,原生产者可以主张后期缺陷抗辩。对实质性变更的判断,我国立法可以参考欧盟《关于缺陷产品责任的指令的提案》与《人工智能法》规定的两种情形:一是修改改变了产品的原有性能、用途或者类型,而生产者在最初的风险评估中并未预计到这一点;二是修改改变了危险的性质,产生了新的危险或者增加了危险的程度。例如,原生产者或者第三方通过升级更新改变人形机器人的用途,从聊天问答拓展到煮饭、做家务、遛狗等,那么该行为构成实质性修改。

  所谓的发展风险抗辩,是指如果依据产品投入流通时的科学技术水平不能发现产品缺陷的,那么即使其后由于科学技术的进一步发展而认识到产品存在缺陷,生产者也不对该已投入流通的产品致人损害承担产品责任。对于发展风险抗辩,各国的立法态度不同。欧盟《产品责任指令》肯定了发展风险抗辩适用的正当性,但允许成员国就该条款提出保留。目前,欧盟大部分成员国的国内立法与指令保持一致,但也有一些国家采取了不同做法。在美国,发展风险抗辩指的是工艺水平(state of the art)抗辩,在美国《第三次侵权责任法重述:产品责任》中存在适用的空间。我国《产品质量法》第47条也明确了发展风险抗辩的适用规则。

  随着人工智能产品的大量生产,生产者能否主张发展风险抗辩不无疑问。有学者认为,人工智能自投入流通后便一直处于发展之中,因而如果将发展风险抗辩适用于人工智能侵权责任事故,那么生产者一方存在逃避责任的可能性。有观点则指出,发展风险抗辩既没有给予生产者必要的安全感,也没有为消费者提供必要的保护,原因在于它的适用过于不确定。即使如此,倘若彻底取消发展风险抗辩,则会导致人工智能领域研发投资的减少,进而严重阻碍人工智能技术的创新。

  欧盟《关于缺陷产品责任的指令的提案》规定,为了公平地分摊风险,如果生产者能够证明在产品投放市场、投入使用或在产品处于制造商控制范围期间,依据当时技术水平无法发现缺陷存在的,可以免除其责任,即承认发展风险抗辩的适用具有正当性。与此同时,提案规定成员国可以限制发展风险抗辩的适用,但需要在生效后的24个月内将措施的文本通知欧盟委员会。并且,发展风险抗辩的克减必须限于特定类别的产品,并应以公共利益为目标且合乎比例。

  发展风险抗辩对于人工智能产业发展具有重要意义,是平衡受害人救济和产业创新发展的重要工具。一方面,一刀切的禁止发展风险抗辩并不合适,可能会阻碍人工智能技术的创新与应用。另一方面,发展风险抗辩的适用也需要考虑到对受害人的救济。为此,未来我国《产品质量法》可以从三个方面做出规定:一是限制适用范围。发展风险抗辩一般仅适用于产品的设计缺陷与警示缺陷,并不适用于制造缺陷,因为后者与科学技术水平无关。与此同时,应当区分不同风险的人工智能,严格限制发展风险抗辩在高风险人工智能产品上的适用,并且对于科学技术水平的认定采用全球行业最高标准。原因在于,高风险人工智能对社会带来了极大的风险,发展风险抗辩的适用理应更加严格,以充分保障社会公众的安全。二是严格适用节点。人工智能产品存在持续更新升级的特点,在判断科学技术水平的时间点上应当与产品投入流通时间点的认定同步。人工智能产品在投入流通后,其通过系统升级更新或者自主学习等方式进行实质性修改系统的,要重新确定科学技术水平的判断时间点。三是完善配套机制。生产者必须履行跟踪观察义务,购买相应的保险,否则不能援引发展风险抗辩规则。

  人工智能产品离不开软件、代码,其中必然涉及开源软件的问题。对于建立在开源软件上的人工智能产品,如果发生产品缺陷致人损害的情形,人工智能产品的生产者与开源软件的提供者能否主张抗辩不无疑问。对此,欧盟《人工智能法》序言第102条规定:“包括模型在内的软件和数据在免费且开源许可下发布,允许公开共享,部署者可以自由访问、使用、修改和重新发布这些软件和数据或其修改版本,可以促进市场研究和创新,并为联盟经济提供了重要的增长机会。”基于此,其第2条规定:“本条例规定的义务不适用于根据免费且开源许可发布的人工智能系统,除非这些系统作为高风险人工智能系统或者属于第5条和第50条的人工智能系统投放市场或提供服务。”与此同时,欧盟《关于缺陷产品责任的指令的提案》第2条明确将“在商业活动的过程之外开发或提供的免费且开源的软件”排除在产品责任的适用范围之外。我国软件知识产权侵权案件中出现过开源抗辩的争议,其核心焦点是:如果软件版权人在开发软件过程中存在某些不当行为,例如使用了第三方的开源软件代码且违反软件许可协议规定的开源义务,那么被控侵权人可否借此提起“开源抗辩”,法官是否应拒绝对此类软件提供版权侵权救济呢?实践中,存在支持与反对两种做法。然而,这种开源抗辩并非产品责任法语境下所讨论的开源抗辩,后者主要解决的是生产者以开源软件作为基础开发的人工智能产品存在缺陷造成损害,生产者与开源软件的提供者是否可以主张开源抗辩的问题。

  开源软件对技术共享与创新的促进作用,可以追溯到20世纪的自由软件运动(free software movement),其伦理基础是社会鼓励公民自愿合作的精神。严格来说,开源软件与免费软件是不同的概念,免费软件不一定是开源软件,开源软件也可以选择收费,只有免费的开源软件才能允许提供者享有开源抗辩。实践中,是否构成开源软件需要根据许可证的具体条款来判断。通常情况下,开源软件意味着需要开放源代码,不得限制任何人将该软件作为包含来自多个不同来源的软件的一部分进行出售或者赠与,也不得要求使用人支付特许使用费或者其他费用。考虑到开源软件允许任何人进行自由访问、使用、修改和分发,其可以促进人工智能技术的分享,减少创新成本,故应当允许提供者主张开源抗辩。至于利用开源软件生产人工智能产品的生产者,不应当允许其主张开源抗辩。因为生产者本身负有审查产品所需要的零部件、软件、服务的义务,所以其不能以第三人提供的零部件、软件、服务存在缺陷来主张免责。对于提供者如何主张开源抗辩,学者们给出了不同的方案。一种是《人工智能示范法(专家建议稿)》第71条规定:“以免费且开源的方式提供人工智能研发所需的部分代码模块,同时以清晰的方式公开说明其功能及安全风险的,不承担法律责任。免费且开源提供人工智能的个人、组织能够证明已经建立符合国家标准的人工智能合规治理体系,并采取相应安全治理措施的,可以减轻或免于承担法律责任。”这意味着提供者主张开源抗辩是有条件的,需要区分开源的是人工智能产品还是部分代码模块,同时需要满足特定的要求。另一种是《人工智能法(学者建议稿)》第95条直接规定免费开源的人工智能不适用于本法;其第90条第1款和第2款规定,开源软件的提供者对于第三方衍生利用开源软件生产的人工智能产品一律不承担责任,即使其知道或者应当知道第三方衍生利用存在违法侵权行为。无论开源的是整个人工智能产品,还是人工智能的部分代码模块,提供者都可以主张开源抗辩。首先,免费开源的人工智能产品或者部分代码模块本身不构成产品责任法中的产品,因为它们不属于用于销售或者投入流通的产品,自然不适用产品责任。从这个角度看,未来我国《产品质量法》在修订时无需创设独立的开源抗辩,只需更新产品未投入流通抗辩的适用规则即可。其次,实践中很难区分开源的是人工智能产品,还是人工智能所需要的部分代码模块,因为人工智能产品具有模块化、软件化的特征,所以任何人工智能产品都可能以零部件的方式进行衍生利用开发形成新的人工智能产品。最后,对于已经开源的人工智能产品或者部分代码模块,任何人都可以自由访问、利用,提供者很难控制第三方的衍生利用行为。此时,立法要求提供者在开源时以清晰的方式公开说明其功能及安全风险或许是必要的,但要求其建立完备的合规体系并采取相应的安全治理措施则可能过于困难,既不利于鼓励软件开源,也不利于技术共享与创新。

  人工智能时代的到来,使得现有的产品责任规则面临诸多挑战,立法需要更新产品的范围、构成要件的认定与免责事由的适用规则。人工智能产品责任与人工智能立法具有内在的关联性,我国在启动《人工智能法》制定程序的同时,应当考虑《产品质量法》的修订,以便同步更新人工智能产品责任规则。从《人工智能法》的角度来看,我国在规定人工智能侵权责任时应当充分考虑产品责任的适用空间,明确人工智能产品缺陷致害时各方应承担的责任。在此基础上,未来我国《产品质量法》应当围绕产品的识别、构成要件的认定、免责事由的配置进行全面的更新,以便助推人工智能产业的发展,对受害人提供妥当的救济。

  《法律科学》是由西北政法大学主办的、面向国内外公开发行的学术性刊物。《法律科学》主要发表法学学术理论文章,辟有法律文化与法律价值、法律思维与法律方法、部门法理、法律制度探微、科技新时代法学等栏目,注重学术性、专业性、知识性。本刊列入中文核心期刊、法律类核心期刊、中文社科常用期刊、法学类最重要的核心期刊、中文社会科学引文索引来源期刊(CSSCI)。

  无论是工作汇报,产品介绍,还是法律研究报告、市场宣传文案,法宝智能写作系统都能为您提供高质量写作支持,满足法律工作者日常学习工作中各类领域的写作需求,提供源源不断的创意与灵感,全面助力您的文案写作。您可以在平台上选择不同的写作模型,输入关键词和要点,即可自动生成文档大纲与内容。平台内嵌法宝V6数据库,让您的内容创作有据可依。与此同时,智能写作平台还支持实时对生成文档进行修改和优化,确保文章撰写的准确性。

  “一键生成文章大纲”——输入关键词和内容要求,即可自动生成文章大纲,为您提供创作起点和清晰明了的写作思路。

  “法宝V6数据库支持”——查阅生成结果的相关法律法规、学术期刊等信息。可准确理解法律术语,帮助生成符合要求的法律文件;能够自动匹配对应法律法规,实现法理逻辑处理自动化,增强文章权威性与可信度。法宝智能写作能及时跟踪法律法规的最新变化,避免使用已失效或废止的法律条文作为参考。

  本文声明 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北律信息网(北宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。