AI + 生医,1+1是不是一定会大于2? 这是一个值得探讨的问题。勤业众信联合会计师事务所( Deloitte) 与环球生技杂志于7月初举办了「AI浪潮席卷生医:策略布局实务与指南」论坛,邀集产业领袖与调研机构分享善用AI应对新局之道,并发布《透过AI与Gen AI实现生命科技产业的转型价值》报告[1] 。报告指出,生成式AI在过去一年半的时间,协助企业拓展了AI的价值范畴。为确保能成功推动大规模的AI转型计划,企业必须于组织内进行「心态、领导型态、投资态度、企业文化及运作模式」5大关键改革,以运用AI助攻企业全方位推升价值。论坛讲者剖析了生医产业导入生成式AI的机会与风险,并对企业该做的准备提出建言。
左起:Deloitte资深执行副总经理陈威棋、赛诺菲香港台湾公共事务企业沟通暨健保事务处长蔡德扬、Deloitte合伙律师熊诵梅、台湾人工智能发展学会理事长暨辅大副校长谢邦昌、Deloitte生技医疗产业负责人虞成全、工业技术研究院产科国际所副所长张慈映、Deloitte医疗照护产业负责人林彦良;摄影:北美智权报/李淑莲
AI为推动生医产业转型的重要关键之一
台湾人工智能发展学会理事长暨辅大副校长谢邦昌在致词时表示,近年来,AI技术迅速发展并广泛应用于新药开发、诊断、医疗流程管理及保险理赔分析等领域。全球AI生命科学市场规模推估在2023至2032年的年复合成长率达19.9%;而AI医疗照护市场于2022至2030年的年复合成长率更高达37%,充分显示出AI在生医产业中的巨大潜力。此局面不仅激励了业界对AI技术的信心,更需透过各领域专家间的讨论与分享,推动整体产业迈向更为稳健与成功的数字转型之路。
Deloitte生技医疗产业负责人虞成全则指出,「生医产业此刻正迎来重要转折点,而AI与生成式AI即是关键」。虞成全表示, Deloitte研究发现,平均营收650~750亿美元之全球TOP 10大型国际药厂/生医公司,在五年内扩大应用AI,将有机会创造出50至70亿美元的最大价值(peak value);其中,近九成价值来自将AI应用在「研发、制造与供应链、商业活动」三大功能部门。不只国际大药厂,科技公司、AI新创、医疗院所等都加入了AI智慧医疗生态系中,因此,组织如何实现AI数字革命带来的潜在价值,并有效管理相应的风险,显得格外重要。
「信任」为生成式AI在生医领域推动成功的关键 法律能提供保障?
在AI 、以及生成式AI呈爆发性成长的今天,如何有效规范成为众业者及使用者最关心的议题。Deloitte合伙律师熊诵梅表示,欧盟理事会于2024年5月21日正式通过AI法案(EU AI Act, AIA),预计是全球的主要经济体中,第一个具法律拘束力的跨行业、跨地域AI框架,部分规定预计今年即可生效。AIA以采取风险导向的监管设计(Risk-Based Approach),将市面上的AI区分为「不可接受风险、高风险、有限风险、最低风险」,分别课予不同的监管义务;并以AI用途的广泛程度,画分单一用途AI与通用用途AI(GPAI),且对于后者有着更严格的要求,提醒企业须注意在快速变化的科技环境中,妥善运用智慧财产管理制度以避免法律风险。
不过,熊诵梅认为,在任何产业发展之初,法规可以慢慢来,让产业可以先自行摸索、成形,待水到渠成的时候,自然会知道什么该管、什么不该管。
另一方面, Deloitte风险咨询服务资深执行副总经理陈威棋指出,生成式AI正为生医产业带来变革性的创新,从新药开发、医学影像分析、诊断辅助、个人化精准诊断和智慧医院等应用,期望可改善医疗体验,提高医疗质量并降低医疗成本。然而,「信任」是生成式AI在生医领域推动成功的关键要求。针对生成式AI应用所面临风险及各国瞬息万变的监管环境下,企业如何确保在导入生成式AI时兼顾创新与责任至关重要,并提醒应遵循风险为导向的原则,建立全面AI风险治理框架,以打造可信赖的永续发展AI产业生态系。
VIDEO
陈威棋强调,数据治理及管理人才及风险方面的管控,是未来生医医疗产业在推动生成式AI的时候,最主要的一个考虑方向。导入生成式AI对企业而言是一种变革,在整个变革的过程中,要如何有一个稳健的治理机制,是全球目前在建立法规时最在意的议题。因为生成式AI不是一个产品、不是一种技术、也不是一个算力的问题,它是整个管理的议题。在导入的过程中,组织(政府单位、企业、学研单位)是要做很多准备的。
图片来源:《透过AI与GenAI实现生命科技产业的转型价值》报告;2024 Deloitte
风险谁来控管?
就账面上而言,生医产业引入AI是利多的,像是有助新药开发时间缩短、制程的效率提高等等;但在利多的背后,风险要由谁来控制?陈威棋提出了显而易见的6大风险,包括:
(1) 偏见风险: 在一些相关临床的实验里面使用到的一些数据信息,本身可能不是很完备,便可能会对特定的一些族群或特定的类型,产生偏见或歧视的现象。如此一来,会不会导致我们的模型、一些智能医疗的医材或设备有误诊的情况?
(2) 黑箱的决策: 由于模型太复杂了,现在谈的所谓一些厉害的大型的模型,虽然很多阐述,但到底他最后结果怎么出来,其实是大家没办法解释的。假设病患询问:「到底为什么结果是这样子?」,如果没有办法把黑盒子打开,也无法得知答案。
(3) 集中委外风险: 很多的一些顶端的平台,很多相关的人工智能医材解决方案,有太多一些技术集中的风险。假设这个主要平台出现问题,即会影响整个医疗产业。
(4) 隐私保护的问题: 患者的病历、疾病的诊断或治疗方式,都应该进行相关的保护措施。假设有不当的使用外泄,会影响到病患者的权益。
(5) 责任归属的不确定性: 在法律的议题里面,这是蛮大的重点。假设未来我们很信任一个相关的人工智能系统所作出的一个决策判断,但结果却导致我们做了错误的决定,那最后责任到底归属在那一边?
(6) 监管的困难: 这一部分有蛮大的挑战,由于AL/ML本身的复杂性,以及药厂方出于利益及专利考虑,许多信息无法公开,造成监管困难。
现今,整体生技医疗产业面临人工智能监管的需求是肯定的,除了欧盟的人工智能法案外,全球各地也有很多特别的规定。特别是在美国,像是美国食品药物管理局(U.S. Food and Drug Administration,FDA),在最近几年有很多的针对新药开发使用AI的一些征询的意见,包含针对一些人工智能智能医疗器材的方面的要求、也有针对像是GMLP如何成为一个良好的学习实践的意见。
备注:
好消息~北美智权报有微信公众号了!
《北美智权报》内容涵盖世界各国的知识产权新闻、重要的侵权诉讼案例分析、法规解析,以及产业与技术新知等等。
立即关注北美智权微信公众号→ NAIP_IPServices
~欢迎读者分享与转发~
作者:
李淑莲
现任:
北美智权报主编
学历:
(台湾)文化大学新闻研究所
经历:
半导体科技杂志(SST-Taiwan)总编辑
CompuTrade International总编辑
日本电波新闻 (Dempa Shinbun) 驻海外记者
日经亚洲电子杂志 (台湾版) 编辑