近日来,与自动驾驶技术相关的车辆事故,陆续在各国出现。虽然它们的自动驾驶技术等级不同,而且驾驶人行为、道路状况也各有影响,但当人工智能(AI)技术逐渐普及到生活当中时,会产生哪些前所未见的风险?造成损害时又该如何决定责任归属?很明显地,人工智能的各种应用到底该如何加以规范,已经成为当前亟待解决的难题。
图片来源 : shutterstock、达志影像
不过,在讨论人工智能该如何使用与规范前,必须先了解人工智能到底能为人们做些什么。以制造业为例,台湾资策会科技法律研究所所长王伟霖说明,从生产流程、质量控制到供应规划、需求预测,都有人工智能的发挥空间。「像是生产流程需要机器人协助搬运或是控制产线流向,质量控制需要视觉、声音检测,连市场需求预测都可以从社群媒体讨论和客服反应内容的文字进行分析。」
这也显示人工智能的技术进程,已经到达无需人类参与、又能自我学习的智慧化程度。王伟霖指出,从有无人类参与、能否自我学习两个面向来分类,人工智能技术可以分成决策辅助、自动化、扩增智慧以及智慧化四个阶段(表1)。他补充,「当进入智慧化后,机械已经可以根据搜集到的信息自己判断分析并且产出结果,而且这个结果不一定是人类能够事先预测的,所以才需要进行规范。」
表1:人工智能技术分类
|
有人类参与 |
无人类参与 |
固线系统 |
决策辅助:使用信息技术来辅助人类进行判断与决策,但系统无法自我学习。 |
自动化:生产线之自动化机械,从原物料、组装、分配包装等工作,皆由机器自动控制生产 |
自我学习系统 |
扩增智慧:使用信息技术来增强人类能力,系统可以进行自我学习。 |
智慧化:机械依据不同情况可自主判断、自主产出,不需要人类协助。 |
数据源:「迈向智能制造与智能软件之路首重AI、大数据研讨会」数据,台湾工业总会,2021/08/18
人工智能应用愈广,对使用规范的需求也就愈高
王伟霖认为:人工智能的影响范围可以分成以下四类:
- 产品安全:软件与硬件产品的安全规范、责任归属皆包括在内,
- 工安/劳工议题:人机工作安全、合法解雇条件与劳工保障,
- 数据保护/信息安全:资料取得规范、资安攻击因应,
- 人工智能伦理:机器人权利、贫富差距等社会影响。
在世界主要大国中,欧盟在AI相关的立法一直相当积极。为了因应这些潜在影响,今年4月时,欧盟颁布了《人工智能规则》草案(Proposal for a Regulation on a European approach for Artificial Intelligence),作为成员国进行人工智能立法时的指引。比起过去数年内欧盟对外公告过的种种政策文件或奖励措施,王伟霖认为,这份草案具有特别重要的意义。「之前可能只是建议或者态度宣示,但这份草案对于会员国是有强制力的,就算各国还是根据自起的情况完成立法,但必须依照草案内框架来进行。」
根据这份草案的规划,未来欧盟对于人工智能的规范强度,将取决于四个风险等级:无法接受、高风险、有限风险以及极小风险。其中,对于风险等级最高(无法接受)以及最低(极小)两类的规范方向最为明确:若使用后会严重威胁人民的基本权利(例如社会信用评等系统、有引诱犯罪之虞等)将会被禁止使用,但若对一般人民几乎没有影响,则无须特别立法规范。此外,如果人工智能使用后可能对一般人造成有限风险,如目前相当盛行的聊天机器人(chatbot),则必须遵循透明原则,诚实告知使用者(表2)。
表2:欧盟建议的人工智能规范框架
风险等级 |
应用领域描述 |
立法政策 |
无法接受的风险
(Unacceptable risk) |
将严重威胁人民的生命、生活等权利。 |
此类AI技术必须严格禁止,在任何情形下均不得使用。 |
高风险
(High risk) |
包括:
- 重要基础建设
- 教育或职业训练
- 与安全相关的产品或服务
- 人员聘雇和劳工管理
- 基本的公共或私人服务
- 可能影响人民基本权利的执法活动
- 移民或边境管制
- 所有与生物识别(biometric identification)相关的应用
|
采用前将被课以严格义务:
- 事前充足的风险评估
- 高质量的数据集,以降低AI系统的风险
- 记录系统活动以确保结果可被追溯
- 系统的使用目的与其他必要信息必须完整保存,供监管单位评估是否合规
- 用户必须能取得详尽、完整的信息
- 适当的人工监督
- 高度的系统强度,安全性与准确性
|
有限风险
(Limited risk) |
对人民的风险较小且可控。 |
负有告知义务,即使用者必须明知正与机器互动,并可决定是否继续。 |
极小风险
(Minimal risk) |
对于人民权利与生活几乎没有影响。大部分AI应用均属于此类。 |
无需特别制定法律规范。 |
数据源:「迈向智能制造与智能软件之路首重AI、大数据研讨会」数据,台湾工业总会,2021/08/18
欧盟将以风险高低程度作为人工智能规范框架
最麻烦的,是被归在高风险内的人工智能应用,包括与基础建设相关(如交通、运输)、教育、员工聘雇、政府执法……等,而且只要会搜集人们的生物识别信息(如指纹、声纹、脸部辨识……等)也都会被归类成高风险。王伟霖指出,对于这类人工智能,欧盟的管制手段就复杂许多,包括事前的风险评估、数据集的质量、系统运作纪录、人工监管…..等。「可以想见,对于这类高风险的人工智能应用,以后在欧盟各国一定会被严格管理。」
除了立法框架外,回到各具体面向的风险控制,欧盟也提出了一些有突破性的想法。例如在产品责任上,目前各国都是采用严格责任原则,也就是对于产品本身瑕疵造成的损害,如果使用者没有故意或过失,将由产品制造者负担责任。
不过,在制造业逐渐采用人工智能技术后,这项原则也开始进行检讨,「毕竟当人工智能的自主程度越高,制造商、营运商、客户能干涉的程度就越低,」王伟霖分析,欧盟正在研议的方向之一,就是突破传统的严格责任,例如基于人工智能的特殊性质来创限建新的法律。「在具体作法上,不见得会立刻创造人工智能的人格,但可能让机器具备某种程度的缔约能力,然后透过强制险的方式,把人工智能造成的产品瑕疵风险,分摊给制造商或开发者。」
有了这套《人工智能规则》草案,再加上已经行之有年的GDPR(一般数据管理规则),欧盟已然成为人工智能相关规范的领头羊。目前,世界各国无不在积极探索人工智能的应用可能,迟早也会进入立法加以规范的阶段。可预见的是,当前欧盟提出的立法思维,必然会对其他国家造成领头羊效应。因此,有着强大制造业的台湾,对AI技术的使用需求也只会愈来愈积极,更必须关注欧盟人工智能立法的政策方向,才能够及早因应对策。
数据源:
- 「迈向智能制造与智能软件之路首重AI、大数据研讨会」数据,台湾工业总会,2021/08/18
- Europe fit for the Digital Age: Commission proposes new rules and actions for excellence and trust in Artificial Intelligence, European Commission, 2021/04/21
好消息~北美智权报有微信公众号了!
《北美智权报》内容涵盖世界各国的知识产权新闻、重要的侵权诉讼案例分析、法规解析,以及产业与技术新知等等。
立即关注北美智权微信公众号→ NAIP_IPServices
~欢迎读者分享与转发~ |
|
|
作者: |
蒋士棋 |
现任: |
北美智权报资深编辑 |
学历: |
(台湾)政治大学企管系 |
经历: |
天下杂志记者
今周刊记者 |
|
|
|