上海政法学院,上海
当前社会,计算机技术飞速发展,人工智能及算法在社会生活中所扮演的角色愈发重要。譬如路线导航,分拣快递,象棋、围棋、诗歌创作、Artificial Intelligence作画甚至是法院的辅助审判系统等诸多领域,都有人工智能的参与。人工智能已经与人类的生活紧密相关。
新兴技术带给人们生活上的便利的同时,同样伴随着带来法律风险。人工智能也不能例外。随着人工智能的普及应用,应用人工智能所产生的侵权事件开始产生。若等到人工智能技术完全成熟之后再考虑有关人工智能的立法,显得过于保守,同时在法律出台之前权利遭到人工智能侵害的人,其权利也无法得到法律的保障。因此,对于人工智能的立法势在必行。
在此之前,部分学者已经对人工智能立法相关的问题进行了研究。但是学界在这一问题上众说纷纭,始终未形成统一的观点。可以预见的是,在未来的社会生活当中,人工智能将在社会的各个行业领域扮演举足轻重的角色。因此,对于人工智能行为的正确法律规制显得尤为重要。
故本文力求在前人研究的基础上,提出一种新的人工智能违法责任分配的模式,从而对人工智能的侵权行为进行规制。相信对于这一命题的研究,可以推动我国关于人工智能的违法责任规制的相关讨论,为这一问题的解决提供崭新的研究思路。
在研究人工智能侵权行为责任规制模式之前,首先应当明确人工智能在法律关系中的地位。同时在论证在法律关系中的地位之前,应当明确在目前的法律体系中,成为法律关系主体的要件。在目前的法律体系中主要有两种法律关系的主体,其一是人,其二是法人及其他组织。人作为目前法律关系中最重要的主体之一,其成为法律关系主体、并与物相区分的原因主要在于相对于物来讲,人具有独立的意思表示能力,并且可以为自己的意思表示承担相应的权利与义务。而法人及其他组织在公司法中被拟制可以独立承担起法律关系当中主体的作用,其主要包括两方面原因。其一是,法人及其他组织是作为一个或数个自然人意思表示的集合代表而产生,法人的意思表示本质上是背后自然人意思表示的集合。其二是,法人及其他组织作为一个独立的法律关系主体,其拥有独立的财产权,可以由自身财产承担其在做出意思表示之后所应当承担的权利和义务。
因此,可以看到,无论是人或是法人及其他组织,作为法律关系中的主体的条件主要包括两个:一是具有独立的意思表示能力,二是具有承担权利与义务的基础。
故下面将通过三个方面论证人工智能是否有成为法律关系中的主体的资格。
首先人工智能不具备意思表示能力。虽然有部分法学学者认为强人工智能具有享有自由意志的可能,强人工智能体可以利用大数据技术获取外界各种信息并通过深度学习将获取的信息推理整合并作出独立行为。同时强人工智能体具备与自然人相当之理性,强人工智能体是以模拟人类各种行为包括语言为基础,不仅具备控制自身行为的能力,还具备与自然人正常沟通能力,能够理解人类的语言并在工作上能顺畅地交流(a)。并因此认为强人工智能应是法律关系的主体。
但是,人工智能所谓的“意思表示”无非是其生产者在人工智能体中所写入的深度学习代码在学习了周遭环境后所计算出的结果,其本质上仍然是一组代码或是一组数据。这一点在计算机科学领域的文章中有所体现(b)(d)。且尚未有人工智能通过图灵测试(e)。换言之,人工智能与人类的意思表示能力存在较大差距,且该差距以目前的技术角度看来,在短期未来仍难以弥补。因此,认为人工智能具有和人类进行类似意思表示的能力只是法学界的一厢情愿,不能得到计算机科学领域的支持。
另一个角度而言,人工智能的“意思表示”能力与人类存在较大不同。相对于人类的意思表示能力,人工智能的“意思表示”具有可循迹性。譬如,同样在面对两个人工智能和两个人类时,可以用另一个包含相同代码的B人工智能经历相同的深度学习过程,预测与其相同的A人工智能的“意思表示”。但无法用两个经历基因都相同的人中的一个去预测另一个的行为。因此,很难认为经过深度学习算法而产生的人工智能的“意思表示”属于人工智能的自由意志。
综合以上两个方面,可以认为人工智能不具有意思表示能力。
除去人工智能不具备意思表示能力外,人工智能不能成为法律关系中的主体的原因还在于人工智能不具备承担权利与义务的基础。对于自然人或者法人及其他组织这两种现行法律体系中的法律主体而言,其承担权利与义务的基础在于生命权、自由权与财产权。法人及其他组织可以通过财产权赔偿的方式承担义务享受权利,自然人在此基础上还可以通过生命权和自由权承担义务。
若赋予人工智能财产权,似乎人工智能可以凭借自身的财产权而享受权利承担义务。但是赋予人工智能财产权面临的问题是人工智能在拥有财产权后其财产从何而来。若空有财产权而无财产,人工智能体仍无法依据自身财产权而承担权利与义务。对人工智能使用者,其购买人工智能体的行为已然向人工智能生产者为人工智能体本身支付了对价,自不愿为人工智能之后为其服务的行为再向人工智能本身支付对价。对人工智能生产者,其生产人工智能体的行为目的是盈利。自不可能将生产人工智能体行为所获得的盈利部分让与人工智能体本身。对于人工智能体依其自身行为在第三人处获得财产的行为,由于人工智能作出行为依靠的是其使用者或生产者所给予的指令。因此,从第三人处所获得的财产,本质上仍应当为人工智能使用者或生产者的财产,而非人工智能本身的财产。若通过立法手段强制要求人工智能的生产者和使用者为人工智能的行为支付对价,则无疑会使得人工智能生产者与使用者倾向于放弃生产及使用人工智能,阻碍人工智能行业的发展。因此,赋予人工智能财产权,理论上似乎可使人工智能凭借自身的财产权而享受权利承担义务。但实则难以实现。
人工智能不具备财产权的情况下,有观点认为,法律对人类的一些权益进行剥夺,使人受到痛苦的惩罚,表现出一种惩罚性,而对人工智能而言删除数据、修改程序、永久销毁等措施就是对人工智能的一种惩罚(f)。人工智能以删除数据、修改程序、永久销毁等措施承担责任或义务是否易于被公众的法感情接受暂且不论。以删除数据、修改程序、永久销毁等措施承担人工智能的侵权责任在法理上具有瑕疵。因为,在民法典中侵权责任实行损害赔偿原则,人工智能不具备财产权的情况下,对人工智能体以删除数据、修改程序、永久销毁等近似于刑法当中的身体刑的方式对人工智能进行规制。首先不能弥补被侵权人受到权利侵害而造成的损失,其财产损失无法由人工智能等价赔偿。其次,人工智能作为此种法律关系的“主体”,仅由于财产性侵权行为即剥夺人工智能的生命权,事实上是将人工智能的生命权与其他法律主体的财产权画上等号,这首先与人工智能法律主体地位不相符,其次对人工智能也显失公平。
因此,无论是否赋予人工智能财产权,若人工智能作为法律主体,其不具备承担权利与义务的基础。
除去前述人工智能不具备意思表示能力以及不具备承担权利与义务的基础两点原因外,若赋予人工智能主体地位会与现行法律体系存在冲突。在论述这一点前应当明确的是,人工智能作为计算机科学中前沿领域的技术之一,其大规模生产和发展不可能通过人工智能体使用者个人学习人工智能技术并开发而实现,其势必需要通过专门的人工智能体生产者对人工智能体设计并生产后通过市场交易手段交付至使用者而实现。因此产生了赋予人工智能主体地位在法律上的矛盾。其矛盾点在于,目前的法律体系中,法律关系的主体不可以被买卖。显然人作为法律关系中最重要的主体不可以被买卖。即使是法人及其他组织,其可以交易的也是法人的股票持有份额,并非法人本身。因此自人工智能被生产之时即赋予人工智能法律主体地位会出现法律主体被交易,这一交易行为,不仅有违人工智能自身的“意思表示”且违背了民法中的公序良俗原则,与现行法律体系存在冲突。
若赋予人工智能法律主体地位不参照自然人享有民事权利能力的起止时间而比照法人享有民事权利能力的起止时间,依照准则设立原则,由主管部门审批登记后,赋予人工智能体民事主体资格。则产生另一种困境。在大规模发展人工智能体的前提下,可以假定生产者生产的同一批人工智能体的使用寿命是相似的。在这一条件下,同一批人工智能体中仅由于不同个体售出时间的随机性,导致其申请民事主体资格以及被赋予民事主体资格的时间不同。致使在后售出的人工智能体所享有民事主体资格的时间要短于先售出的人工智能体。对于这部分具有“意思表示”能力的人工智能体而言,仅由于售出行为的随机性而减少了其作为民事主体存在的时间是否公平。若以更极端的视角,若存在部分人工智能体在制造后由于其他外界因素导致并未售出,这种仅由于售出行为的随机性而剥夺了其作为民事主体存在的权利又是否公平。答案显然是否定的。若承认人工智能体具有“意思表示”能力,具有成为民事主体的资格,就不能因为人类行为的随机性而剥夺部分人工智能体享有民事主体资格的权利。若仅因为人类行为的随机性即可剥夺部分人工智能体享有民事主体资格的权利,人工智能体所享有的民事主体资格是有瑕疵的“民事主体资格”,而非真正的民事主体资格。因此依照准则设立原则,由主管部门审批登记后,赋予人工智能体民事主体资格,有违民法中的公平原则,不应予以适用。
综合以上两点,无论比照自然人获得民事权利能力的规定,在生产者生产人工智能体时赋予人工智能体民事主体资格,或是参照法人获得民事权利能力的规定,依照准则设立原则,由主管部门审批登记后,赋予人工智能体民事主体资格,均存在与现行法律体系的冲突。因此对人工智能在法律关系中的地位应当采取人工智能客体论。在法律关系中赋予人工智能客体的地位。
如上述,将人工智能和现有法律关系当中的主体进行比较得到结论:即在法律关系中,对于人工智能体应作为法律关系当中的客体而非主体进行规制。因此,下文将以人工智能在法律关系中作为客体为基础,探究人工智能侵权行为应如何通过法律进行规制。
已有的研究认为质量问题引发的人工智能侵权应当纳入产品责任体系(g)。但是人工智能体与传统的产品有所不同,人工智能体的行为模式是依照人类的指令,并将该指令依据自身算法进行转化后加以实施。而非传统产品直接实施人类指令的行为模式。因此,对于人工智能体侵权行为的规制本质上应类比于现行法律体系中对饲养动物侵权责任的规定。因为人工智能体与饲养动物在本质上相似。被饲养动物的行为模式也为依照人类的指令,并将该指令依据动物本身的思维进行转化后加以实施。因此,似乎对于人工智能体侵权行为采取我国民法典第一千二百四十五条至第一千二百五十一条(h)中关于饲养动物损害责任的规定即可有效规制人工智能体侵权行为。
但人工智能体与饲养动物的不同之处决定了采用该模式规制人工智能体侵权行为缺乏可行性。人工智能体与饲养动物的最大不同在于,人类作为饲主对于饲养动物执行其指令的有效性及准确性在过往数千年的饲养史中已有所认知。因此,人类会在饲养动物执行指令时额外提高自身注意义务以避免产生饲养动物侵权行为。但是人工智能体作为新兴事物,人类对其执行人类命令的有效性及准确性缺乏实践与认知。换言之,人工智能体虽然由人类生产,但并未完全被人类“驯化”。因此,若对人工智能体侵权行为的归责比照民法典侵权责任编饲养动物损害责任采取过错责任原则,则不免出现人工智能体的生产者和使用者在尽到审慎义务的同时由于对人工智能体的认识程度不足而导致人工智能体侵权行为发生。这种情况下,若采取过错责任原则,由于生产者和使用者双方均无过错则被侵权人无法追责。只能被迫承受侵权损害的结果。而被侵权人的合法权利并未被法律有效保护。因此这种归责原则对于被侵权人显失公平。
若对人工智能体的侵权行为严格归责,采取无过错责任原则规范人工智能体的侵权行为是否有助于解决这一困境?虽然无过错责任原则降低了被侵权人对生产者和使用者双方追责的成本,保障了被侵权人的合法权利,但是其答案仍是否定的。原因在于,若采取无过错责任原则规范人工智能体的侵权行为,固然保护了被侵权人的合法权利免遭侵害,但在这种责任标准下,由于赋予了人工智能体生产者和使用者过高的责任标准,根据经济学中的理性人假设,会使得人工智能体生产者和使用者双方由于对负担责任的恐惧而避免大规模生产开发或应用人工智能体,从而阻碍人工智能行业的大规模应用发展。从社会整体效果而言阻碍了人工智能行业的大规模应用发展。因此,一味采取无过错责任原则规范人工智能体的侵权行为也存在不足。
首先在讨论人工智能侵权行为所导致的责任应当采取何种责任模式之前,应当首先明确人工智能侵权行为所导致的责任应当由何种法律关系的主体来承担。除去认为应当由人工智能作为法律关系主体而承担侵权责任的观点外,有观点认为由于人工智能设计者的设计缺陷造成的,由人工智能设计者承担侵权责任,由于人工智能管理者的故意或过失造成的,由人工智能管理者承担相应的侵权责任。在人工智能侵权行为的产生原因不明的情况下,由人工智能设计者和管理者承担相关侵权行为的连带责任(i)。但笔者认为,人工智能侵权行为的责任承担主体,应为人工智能体的生产者。其原因主要有三:
(1)将责任归责于生产者可以有效督促生产者生产人工智能体以及设计人工智能体算法时提高审慎水平,从而从源头即降低人工智能对人类产生危害的风险,有利于保障他人的权利。使人工智能更好地为人类社会造福。所以人工智能的生产者应当为人工智能的侵权行为负责,这样不仅有利于保障其他法律主体的合法权益,更有利于未来的人工智能行业的发展。
(2)由于人工智能本身的复杂性及高度智能性。相对于人工智能的生产者,人工智能的使用者对其所使用的人工智能知之甚少。大多数人工智能的使用者在使用人工智能的过程中,不具备足够的专业知识来判断其日常行为生活当中,人工智能所内置的深度学习算法会根据以往所输入的数据对现在所面临的情形做出何种反馈。即便少数具有专业能力的使用者,也碍于其使用的人工智能的算法往往不被其生产者公开等原因,无法对其使用的人工智能的行为做出准确判断。相对于人工智能的使用者,人工智能的生产者在这种情况下有足够的专业知识、能力以及财力对人工智能的行为做出判断甚至预测。因此,在这种前提下,对人工智能的使用者而言,由于其无法准确预知使用人工智能的行为会导致何种法律后果。在这种前提下,令人工智能的使用者承担过多的法律责任违反民法中的公平原则。
(3)在人工智能领域中,人工智能的生产者相对于使用者有绝对的技术优势,且使用者必须通过生产者生产人工智能体的行为方可获得并使用人工智能。可以认定人工智能生产者在这一领域中相对于使用者具有相对优势地位。因此若规定人工智能的生产者仅承担由于设计缺陷所造成的侵权责任以及在人工智能侵权行为的产生原因不明的情况下,与使用者承担相关侵权行为的连带责任。则人工智能生产者为求降低自身承担责任的风险,会在使用说明中通过使用人工智能领域的专业描述使文本难以被使用者理解且对使用者课以较高使用标准从而极尽排除自身义务。而由于使用者对人工智能相关知识的缺乏,事实上难以完全遵循生产者在使用说明中对使用者行为的要求。在这种前提下,采用前述模式对人工智能体进行归责显然未考虑到人工智能生产者与使用者之间的相对市场地位关系,会导致人工智能使用者在人工智能侵权行为中承担过多责任。
因此笔者认为,人工智能侵权行为的责任承担主体,应当归责于人工智能生产者。
确定了人工智能侵权责任承担的主体后,应该采取何种归责原则规制人工智能的侵权行为成了探究人工智能侵权行为归责模式的关键。
根据上述,无论采用无过错责任原则规范人工智能体的侵权行为,或是比照民法典侵权责任编饲养动物损害责任采取过错责任原则规范人工智能体的侵权行为均陷入困境。因此,对于人工智能体侵权行为,需要寻找新的归责模式以平衡被侵权人的合法权利以及人工智能行业的发展。而针对这一问题,前人学者已经在法学进路中进行了诸多探讨,因此可以基于法经济学的视角对这一问题进行探究。而根据法经济学中的汉德公式(j),在此语境下受到侵害的被侵权人的合法权利为B,在人工智能体的生产者与使用者均尽到其审慎义务时人工智能体侵害被侵权人的合法权利的概率为p,阻碍人工智能行业大规模应用发展所造成的损失为L,生产者和使用者双方由于无过错责任原则放弃大规模生产开发及使用人工智能的概率为P。当满足pB≥pL时,应当通过无过错责任原则规范人工智能体的侵权行为,当满足pB≤pL时,应当比照民法典侵权责任编饲养动物损害责任采取过错责任原则规范人工智能体的侵权行为。
事实上,在宏观层面,被侵害人的某种权利受到侵害案件的数量多少仅关乎于司法机关应用该归责模式的次数,无关于归责模式的创立。因此,在宏观层面,被侵权人受到侵害的合法权利的范畴小于等于被侵权人所享有的所有合法权利的范畴。即被侵权人受到侵害的合法权利B小于等于人享有的所有合法权利B'。长期来看,人享有的所有合法权利这一范畴变化较小。因此,在此式中可以认为当B=B'≈k,其中k为定值。同时阻碍人工智能行业大规模应用发展所造成的损失L在宏观层面上来会随着时间的推移上升,即L单调递增。以及可以认为生产者和使用者双方由于无过错责任原则放弃大规模生产开发及使用人工智能的概率P与放弃大规模生产开发及使用人工智能导致人工智能行业发展缓慢的概率P'相等。同时,由于无过错责任的过高责任标准,可以认为P无限趋近于1。因此有P=P'→1。同时因为人工智能作为计算机科学的前沿领域,无论采取何种人工智能体侵权行为归责模式,作为国家非营利性研究机构均会进一步完善人工智能技术。因此,由于人工智能技术的发展,人类必将对于人工智能体的行为预测更加准确,因此在人工智能体的生产者与使用者均尽到其审慎义务时人工智能体侵害被侵权人的合法权利的概率p呈下降趋势。因此,上式可以化简为当满足,即
时,应通过无过错责任原则规范人工智能体的侵权行为,当满足
,即
时,应比照民法典侵权责任编饲养动物损害责任采取过错责任原则规范人工智能体的侵权行为。
因此,在人工智能侵权行为归责模式构建中,降低生产者所应承担的法律责任,无疑会推动和促进人工智能的大规模发展。但若在人工智能技术不成熟时过分降低人工智能体生产者和使用者所应承担的法律责任,无疑会导致人工智能产业的“野蛮生长”,致使市场上人工智能存有隐患的风险增加。依照汉德公式,这一社会利益的损失要远超在人工智能技术不成熟时降低人工智能体生产者和使用者责任标准带来的社会利益。因此,在人工智能技术不成熟时过分降低人工智能体生产者和使用者责任标准无疑不利于人工智能未来发展以及社会中的应用。因此,在人工智能相关侵权行为的法律规制方面,在人工智能技术尚不成熟时适宜采取较为严格的无过错责任归责原则,这样不仅有利于人工智能的生产者生产人工智能时提高其审慎程度,使人工智能更安全,同时有利于社会大众降低对人工智能的抵触情绪水平使人工智能可以融入社会,从长远来看有利于人工智能行业的发展。而在人工智能技术成熟后,比照饲养动物损害责任采取过错责任原则规范人工智能体的侵权行为。降低过高的责任标准对于人工智能体的生产者以及使用者大规模生产开发及使用人工智能的限制。推动社会利益的进步。
因此,人工智能的侵权责任归责标准适宜采用当满足,即
时,应通过无过错责任原则规范人工智能体的侵权行为,当满足
,即
时,应比照民法典侵权责任编饲养动物损害责任采取过错责任原则规范人工智能体的侵权行为。
由以上论述可知,针对人工智能侵权行为的法律规制,首先应当确定人工智能在法律关系中的地位。因为人工智能不具有独立的意思表示能力,其亦不具有承担权利与义务的基础,且将人工智能拟制为法律关系中的主体与现行法律体系存在冲突。故应认为人工智能在法律关系中处于客体。在此基础上,将人工智能的侵权责任归责于其生产者而非使用者,有利于对于使用者权利的保护,也有利于提高生产者在生产人工智能时的审慎程度。在归责模式上,应依照不同时期人工智能技术的成熟程度而分别采取无过错责任模式以及类比于饲养动物损害责任的过错责任原则对人工智能的生产者进行规制。通过以上三个角度对我国人工智能侵权行为进行规制,有利于我国人工智能产业的正常发展,从而使我国民法能够更好地保障公民权利,保证社会公平。
(a) 榻梅玲.论强人工智能体的民事法律地位[J].广东石油化工学院学报,2021(2).
(b) Varghese V Devasia.The Celibate[J].Ukiyoto Publishing Press,2022:113.
(c) Erik J,Larson.THE MYTH OF ARTIFICIAL INTELLIGENCE: Why Computers Can't Think the Way We Do[M].The Belknap Press of Harvard University Press,2021:4.
(d) Paulius Cerka,Jurgita Grigiene,Gintare Sirbikyte.Liability for damages caused by artificial Intelligence[J].Computer law & security revies,2015(31):376-389.
(e) 图灵测试(The Turing Test)由艾伦·麦席森·图灵提出,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。
(f) 唐亚南.如何从刑法的维度对人工智能进行规制[J].法律适用,2021(4).
(g) 陈和芳.论人工智能侵权责任主体的识别机制[J].学术交流,2020(7).
(h) 参见《中华人民共和国民法典》第一千二百四十五条至第一千二百五十一条。
(i) 付其运.人工智能非主体性前提下侵权责任承担机制研究[J].法学杂志,2021(4).
(j) 汉德公式:在卡罗尔拖轮公司一案中,法官汉德(Learned Hand)提出的公式:B<PL;B:预防事故的成本;L:一旦发生所造成的实际损失;P:事故发生的概率;PL:(事先来看)事故的预先损失。只有在潜在的致害者预防未来事故的成本小于预期事故的可能性乘预期事故损失时,致害者才负过失侵权责任。