2020年7月,由欧洲议会下辖公民权利和宪法事务政策部(Policy Department for Citizens' Rights and Constitutional Affairs)出版《人工智能及其民事责任》(Artificial Intelligence and Civil Liability)的研究报告。该研究第一章讨论了人工智能和基于人工智能的技术的概念,其作为产品规格(qualification)以及法人格属性(legal personhood)的讨论;第二章则分析了现有欧洲产品安全和责任框架(European product safety and liability framework);第三章讨论了当前被提出在欧盟层级的建议,即尝试在专家组报告(Expert Group’s Report, EG’s Report)中就新技术型式(New Technology Formation)来涵盖有关人工智能的责任规范;并于第四章提出一种创新性责任监管模式(regulation of liability),即风险管理模式(the Risk Management Approach, RMA);最后第五章依据RMA对四个相关案例进行研究,以便在必要时提出改革建议。本文仅探讨医疗机械人和诊疗辅助技术的部分。
图片来源 : shutterstock、达志影像
首先定义人工智能
这项研究参考了由十四国政府制定之国家战略和相关政策中使用的人工智能定义;尽管内容并不完全,惟其提供了有关政府、国际组织以及研究人员就如何看待人工智能之广泛信息,并且是依据七个标准来对之进行定义:[1]
- 人工智能是科学(science)、系统(system)还是功能(functionality)?
- 人工智能是否可以同时指向硬件和软件系统?
- 「弱人工智能」(weak AI)和「强人工智能」(strong AI)或「狭义人工智能」(narrow AI)和「广义人工智能」(general AI)之间是否有区别?
- 是否仅能将有智能的系统(Intelligence)视为人工智能?
- 人工智能是指实际应用(actual applications)抑或是未来应用(future applications)(由风险管理角度以观,在规范人工智能时必须考虑特定类别之应用)?
- 系统应显示哪一类的功能才能被视为人工智能(Features or capabilities)?
- 定义是否涉及人工智能研究次领域和确切定义(Reference to AI research subfields)?
本文仅举欧盟人工智能高级专家组(High-Level Expert Group on Artificial Intelligence, AI HLEG)提出的定义为例说明之「人工智能系统是由人类设计的软件(可能还有硬件)系统,先给定一个复杂的目标,其会通过数据采集来感知周遭环境,以此来解释收集而来的结构化或非结构化数据(structured or unstructured data),从这些数据中得到知识(reasoning on the knowledge)或处理信息(processing the information),并决定为了实现该给定目标而采取的最佳措施;人工智能系统既可以使用符号规则(symbolic rules),也可以学习数值模型(numeric model),还可以通过分析环境如何受到先前动作的影响来适应其行为(adapt their behaviour by analysing how the environment is affected by their previous actions);人工智能作为一门学科,包括多种方法和技术,例如机器学习(machine learning)(深度学习和强化学习是其中的具体示例)、机器推理(machine reasoning)(包括计划、调度、知识介绍暨推理、搜索和优化)以及机器人技术(robotics)(包括控制、感知、传感器和执行器,以及将前述所有其他技术合并整合到虚实整合系统(cyber-physical systems)中)。」[2] 可见,该欧盟高级别专家组对AI的定义并不及于前述七项标准中的第3(AI类型化)、4(专家组使用「理性代理人」的概念)和5(AI应用面)项。
对人工智能法人格的可能解释—「电子人格」(electronic personhood)
在讨论电子人格之前,让我们先来回顾一下欧洲议会于2017年作出的《关于民法对机器人技术规定的决议》(European Parliament Resolution on Civil Law Rules on Robotics, CLRR)中指出:「长远来看,为机器人创建特定的法律地位,以便至少可以将最先进的自主机器人(most sophisticated autonomous robots)确定为具有负责弥补可能造成任何损害的电子个体(electronic persons),并可能将此电子人格(electronic personality)适用于当机器人自主作出决定或与第三方互动时的情况。」该决议被解释为对机器人以及更广泛机器的权利的承认。[3]
2019年,欧洲委员会(the European Commission)任命的专家组(Expert Group on Liability and New Technologies)基于更加明确和实用的推理,从其作出《人工智能责任报告》(Report on Liability for Artificial Intelligence)中否认电子人格的必要性:「当前没有必要赋予新兴数字技术的法人地位。因为纵使是由完全自主技术所造成的损害,也通常可以透过分配给自然人或现有法人类别来减低风险,在这种情况下,针对个体的新法律要比建立新法人格来得更好。基于新兴数字技术的任何形式的法人地位都可能引发许多道德问题。更重要的是,只有创新法律体系这条路,因为它有助于法律体系应对新兴数字技术的挑战。任何其他人格都应与分配给此类电子个体的资金齐头并进,以便可以有效地向其提出索赔。这将等于设置损害赔偿责任的上限,正如公司通过对可归责于电子人格的自然人或法人提出索赔,从而有效地「揭穿电子面纱」(piercing the electronic veil)。此外,为了体现其法律责任,电子代理人(electronic agents)必须有自行取得财产的能力。这就需要解决它们在从事有效法律行为时所面临到的法律能力存否的若干立法问题。」[4]简言之,建立额外法人格将牵涉更多法律和道德面问题,故不可不慎也。
然而,专家组(EG)对电子人格的批评是笼统和抽象的,其声称电子人格只会为公司已经存在的法人格简单地增加一层,严格而言,这是不正确的;电子人格的不同概念可以使所表彰实体特征趋向多元,而不是适用于公司等法人组织,就如同非营利组织和基金会等拥有法人格的组织。[5]
总之,现在或未来可能存在将机器归为某种法人格的情况;并依照以下两种方式来实现:(1)通过将今天专属于公司等的法人格延伸到机器上;或者(2)创建法人格的不同观点。[6]
进行产品责任指令(Product Liability Directive, PLD)的改革
一般而言,民事责任规则具有三个功能:第一个也是最重要的一个功能,是受害者的事后补偿功能(ex post compensation),因为它们迫使负责赔偿的人弥补所遭受的损失;此外,尚有事前吓阻(ex ante deterrence)功能。基于若只有事后补偿功能的话,则将使代理人经济效率低下,导致无法意识到有害行为,故容易有积极侵权的情况出现;最后,如果确定侵权人不会规避非法行为的话,民事责任规则也可以起到事后惩罚(ex post punishment)的作用。[7]
因此,对产品责任指令的修订应旨在克服以下所有之低效率和难题:[8]
(1)限制该指令的适用范围(即该事实不含软件所造成的损害,除非旨在通过不同而又具体的规定来解决该类的损害);
(2)被害人的举证责任,要求被害人证明损害与瑕疵间的因果关系,但通常排除生产者揭露相关信息的义务;
(3)指令是采用严格责任(或称无过失责任)。
解决这些问题的一种可能方案是根据风险管理方法(Risk-Management-Approach, RMA)来确定产品责任,该方法基于能力相匹配原则,将责任分配予能从危险活动中获利的当事人以赔偿损失;根据这种方法,还必须提供一个明确诉讼进入点(one-stop-shop),以最大程度地减少受害人诉诸司法的成本,并增加受害人获得赔偿的机会;基此,损害赔偿责任规则应依据自下而上的、功能性的以及针对特定行业作法来制定(bottom-up, functional and thus sector specific approach)规则,从而为具体应用的问题提供量身定制的解决方案;最后,应对该指令进行修订,以确保高标准的协调。[9]
基于人工智能的应用中民事责任规制的风险管理方法[10]
由于使用基于人工智能的应用和先进技术而导致的民事损害赔偿责任的一切管理工作都涉及两个基本方面,即产品责任规则(product liability rules)和设想临时法规(ad-hoc regulation)的可能性;这两个选项通常被认为是并行运作的,并且不是互斥的。
风险管理方法将责任归于最能承担以下行为:(1)识别风险;(2)通过其选择来控制和将风险最小化;以及(3)管理该风险(理想的作法是在所有其他各方之间汇总和分配风险);最终通过能提供保险赔付机制或无过失赔偿金(no-fault compensation funds)的一方。因此,人工智能的应用在民事责任规制上系采取严格的(非绝对)责任规则。
在进行规制之前,须先行评估以下:
首先,需要识别一类足够统一的AI应用,并表现出相似的技术特征以及相应的法律(在某些情况下是道德)问题;
其次,需要确定现有在欧盟成员国和欧盟层级的相关立法,可以专门适用于特定的AI应用,而在技术尚未广泛普及的情况下,则需要进行前瞻性立法以及对可能引起的潜在法律和市场失灵的问题进行功能性分析;
最后,以风险管理方法(RMA)为基础,当需要进行法律改革时,只有在这种情况下,才可以提出一项建议,明确要求一个特定当事人负责,若非绝对责任规则,则作为所有诉讼的唯一切入点,并授予追索权(rights to act in recourse),在适当时加以保证责任,最终确定其责任的上限。
以医疗机械人和诊疗辅助技术为例[11]
先进的机器人技术和人工智能已经在各种不同的医疗环境中使用,并且有望越来越被依赖,包括从诊断(diagnosis)和医学治疗(medical treatment)再到外科手术(surgery),以及特定领域的应用,诸如放射学(radiology)或病毒学(virology)等。
由采用人工智能的行业、自下而上和功能性监管以观,因此应对医疗机器人和人工智能带来的挑战尤为重要。
从政策制定者的角度出发,有必要分析如何在(1)执业医师(the medical practitioner);(2)制造商/编程人员(the manufacturer/programmer)以及(3)决定采用基于人工智能的解决方案的医院或机构(hospital/structure)之间分配责任;或依据现有规则(即过失和产品责任(negligence and product liability))来雇用从业人员。
但正如在整个研究中明确指出的那样,即使在相对狭窄的AI应用类别中,也不能采用一体适用的方法(no one-size-fits-all approach)。实际上,在「医疗机器人」(medical robots)或「医疗AI」(medical AI)的标签下,出现了各式各样的设备,这些设备在技术特征(technical features)、传播(diffusion)、功能(function)和用途(use)方面又彼此不同。
以外科手术机器人(Surgical robots)为例。在外科手术机器人和可能被非技术用语称为「智能助手」(intelligent assistants)的一系列应用程序之间可能存在第一类区别。外科手术机器人是复杂的机器人设备,与传统技术相比,外科机器人可以使医师以更高的精度、灵活性和控制力来进行外科手术,并且侵入性较小。因此,在讨论与使用此类系统有关的损害赔偿责任时,我们应同时考虑产品责任的现行规则以及与医疗事故有关的规则。实际上,专家系统和计算机辅助诊断工具在人类手中是充当工具,人类可能会对受智能助手的影响或应为其受到影响的部分行为承担责任。
在现有法律框架的情况下[12]
在第一种情况(医师遵从决定,但系统错了)下,可能适用两种不同的责任规则:(1)产品责任规则(product liability rules),要求生产者承担责任;(2)医疗责任规则(medical liability rules),由执行业务的医疗机构承担责任。在典型情况下,患者将按照已被证明是错误的指示起诉医师或医院;如果生产者负有责任,后者可以起诉生产者。
在该种情况下,仅适用医疗法规则。因为患者会责怪医师未选择可能防止损害的措施,因之认为专家系统的诊断是正确的或者是对前述系统的依赖所致,即系统大大增加了患者确信取得最合适治疗的机会。即使实际上不能客观证明两者存在因果关系。
因此,医疗责任构成了解决此一问题的首要、也是必要的法律框架。
小结:评估与建议[13]
在这种背景下,根据现行责任规则,执业医师似乎倾向于采用防御性医疗(defensive medicine practices)决策。这既可能涉及使用计算机辅助诊断系统(computer assisted diagnostic systems)的选择,也可能取决于建议的诊断和治疗方法。同样,这种趋势可以通过「医师渐进去责任化」(progressive de-responsabilization of the physician)的方式来补充,医师可以使用有关其选择的公开信息来符合或不符合系统的诊断,以此作为一种具体的固化策略(specific curing strategy)来转移患者知情同意(informed consent)的风险。为了避免此种情况出现,可能的作法是适当的修改现有责任规则或无论如何限制医师的责任范围,以保护医师免受与使用医疗系统有关的责任,而对医院、生产者或医疗辅助技术提供者而言,则要之承担严格且绝对(strictly and absolutely liable)的一种特定形式的企业责任(enterprise-liability)。
结论
该研究报告建议之监管方法,基于法律明确性原则,旨在透过法律来保护创新技术。再通过RMA来简化责任规则:意谓优先考虑受害人的赔偿问题,以鼓励业者采用先进技术。以医学诊断辅助技术(medical diagnostic assistive technologies)为例,由于源自欧盟及其成员国的法律框架设计尚难称完善,故应予以紧急修订,基于以下的考虑:(1)认为产品责任立法和有关医疗事故的国家立法有重迭之处,无论是契约规定抑或是另外构成侵权行为,在专业过失(professional negligence)的情况下,主要是追究医师的责任;(2)导致防御性医疗决策的情况。应修订现有的责任规则,以保护医师免受与使用医疗系统有关的责任或最大程度地减少其直接责任的负担。因此,报告建议应通过严格责任规则或通过为服务提供商建立企业责任形式,让医院或生产者承担主要责任。
备注:
- Andrea Bertolini, Artificial Intelligence and Civil Libility, 22(European Parliament's Committee on Legal Affairs of European Union 2020); available at: http://www.europarl.europa.eu/supporting-analyses.
- Ibid, 23. See also, AI HLEG (2019),‘A definition of AI: main capabilities and disciplines, European Commission’, Available at the following link: https://ec.europa.eu/digital-single market/en/news/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines.关于其他国家和国际组织对AI的定义,请参考该报告的第23-29页。
- Ibid, 33. See also, European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)., paragraph 59.
- Ibid, 34. See also, Techno (2019), Report on Liability for Artificial Intelligence and other emerging digital technologies., available at: https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608.
- Ibid, 42.
- Ibid, 43.
- Ibid, 60.
- Ibid, 61.
- Ibid, 61.
- Ibid, 97-103.
- Ibid, 111-113.
- Ibid, 113-115
- Ibid, 116.
好消息~北美智权报有微信公众号了!
《北美智权报》内容涵盖世界各国的知识产权新闻、重要的侵权诉讼案例分析、法规解析,以及产业与技术新知等等。
立即关注北美智权微信公众号→ NAIP_IPServices
~欢迎读者分享与转发~ |
|
|
【本文只反映专家作者意见,不代表本报立场。】
|
|
作者: |
吴尊杰 |
現任: |
北美智权报专栏作家 |
学历: |
国立中央大学法律与政府研究所法学硕士 辅仁大学金融与国际企业学系管理学士 |
专长: |
宪法、公司法、金融法、知识产权法 |
|
|
|