AI + 生醫,1+1是不是一定會大於2? 這是一個值得探討的問題。勤業眾信聯合會計師事務所與環球生技於7月初舉辦了「AI浪潮席捲生醫:策略布局實務與指南」論壇,邀集產業領袖與調研機構分享善用AI應對新局之道,並發布《透過AI與GenAI實現生命科技產業的轉型價值》報告[1] 。報告指出,生成式AI在過去一年半的時間,協助企業拓展了AI的價值範疇。為確保能成功推動大規模的AI轉型計畫,企業必須於組織內進行「心態、領導型態、投資態度、企業文化及運作模式」5大關鍵改革,以運用AI助攻企業全方位推升價值。論壇講者剖析了生醫產業導入生成式AI的機會與風險,並對企業該做的準備提出建言。
左起:勤業眾信風險諮詢服務資深執行副總經理陳威棋、賽諾菲香港台灣公共事務企業溝通暨健保事務處長蔡德揚、德勤商務法律事務所合夥律師熊誦梅、台灣人工智慧發展學會理事長暨輔大副校長謝邦昌、勤業眾信生技醫療產業負責人虞成全、工業技術研究院產科國際所副所長張慈映、勤業眾信醫療照護產業負責人林彥良;
攝影:北美智權報/李淑蓮
AI為推動生醫產業轉型的重要關鍵之一
台灣人工智慧發展學會理事長暨輔大副校長謝邦昌在致詞時表示,近年來,AI技術迅速發展並廣泛應用於新藥開發、診斷、醫療流程管理及保險理賠分析等領域。全球AI生命科學市場規模推估在2023至2032年的年複合成長率達19.9%;而AI醫療照護市場於2022至2030年的年複合成長率更高達37%,充分顯示出AI在生醫產業中的巨大潛力。此局面不僅激勵了業界對AI技術的信心,更需透過各領域專家間的討論與分享,推動整體產業邁向更為穩健與成功的數位轉型之路。
勤業眾信生技醫療產業負責人虞成全則指出,「生醫產業此刻正迎來重要轉捩點,而AI與生成式AI即是關鍵」。虞成全表示,勤業眾信研究發現,平均營收650~750億美元之全球TOP 10大型國際藥廠/生醫公司,在五年內擴大應用AI,將有機會創造出50至70億美元的最大價值(peak value);其中,近九成價值來自將AI應用在「研發、製造與供應鏈、商業活動」三大功能部門。不只國際大藥廠,科技公司、AI新創、醫療院所等都加入了AI智慧醫療生態系中,因此,組織如何實現AI數位革命帶來的潛在價值,並有效管理相應的風險,顯得格外重要。
「信任」為生成式AI在生醫領域推動成功的關鍵 法律能提供保障?
在AI 、以及生成式AI呈爆發性成長的今天,如何有效規範成為眾業者及使用者最關心的議題。德勤商務法律事務所合夥律師熊誦梅表示,歐盟理事會於2024年5月21日正式通過AI法案(EU AI Act, AIA),預計是全球的主要經濟體中,第一個具法律拘束力的跨行業、跨地域AI框架,部分規定預計今年即可生效。AIA以採取風險導向的監管設計(Risk-Based Approach),將市面上的AI區分為「不可接受風險、高風險、有限風險、最低風險」,分別課予不同的監管義務;並以AI用途的廣泛程度,畫分單一用途AI與通用用途AI(GPAI),且對於後者有著更嚴格的要求,提醒企業須注意在快速變化的科技環境中,妥善運用智慧財產管理制度以避免法律風險。
不過,熊誦梅認為,在任何產業發展之初,法規可以慢慢來,讓產業可以先自行摸索、成形,待水到渠成的時候,自然會知道什麼該管、什麼不該管。
另一方面,勤業眾信風險諮詢服務資深執行副總經理陳威棋指出,生成式AI正為生醫產業帶來變革性的創新,從新藥開發、醫學影像分析、診斷輔助、個人化精準診斷和智慧醫院等應用,期望可改善醫療體驗,提高醫療品質並降低醫療成本。然而,「信任」是生成式AI在生醫領域推動成功的關鍵要求。針對生成式AI應用在面臨風險及各國瞬息萬變的監管環境下,企業如何確保在導入生成式AI時兼顧創新與責任至關重要,並提醒應遵循風險為導向的原則,建立全面AI風險治理框架,以打造可信賴的永續發展AI產業生態系。
VIDEO
北美智權報/李淑蓮錄製
陳威棋強調,資料治理及管理人才及風險方面的管控,是未來生醫醫療產業在推動生成式AI的時候,最主要的一個考量方向。導入生成式AI對企業而言是一種變革,在整個變革的過程中,要如何保有一個穩健的治理機制,是全球目前在建立法規時最在意的議題。因為生成式AI不是一個產品、不是一種技術、也不是一個算力的問題,它是整個管理的議題。在導入的過程中,組織(政府單位、企業、學研單位)是需要做很多準備的。
圖片來源:《透過AI與GenAI實現生命科技產業的轉型價值》報告;2024勤業眾信
風險誰來控管?
就帳面上而言,生醫產業引入AI是利多的,像是有助新藥開發時間縮短、製程效率的提升等等;但在利多的背後,風險要由誰來控制?陳威棋提出了顯而易見的6大風險,包括:
(1) 偏見風險: 在一些相關臨床的實驗裡面使用到的一些資料數據,由於本身可能不是很完備,便可能會對特定的一些族群或特定的類型,產生偏見或歧視的現象。如此一來,會不會導致我們的模型、一些智慧醫療的醫材或設備有誤診的情況?
(2) 黑箱的決策: 由於模型太複雜了,現在談的所謂一些厲害的大型模型,雖然很多闡述,但到底他最後結果怎麼出來,其實是大家沒辦法解釋的。假設病患詢問:「到底為什麼結果是這樣子?」,如果沒有辦法把黑盒子打開,也無法得知答案。
(3) 集中 委 外風險: 很多一些頂端的平台,很多相關的人工智慧醫材解決方案,有太多技術集中的風險。假設這個主要平台出現問題,即會影響整個醫療產業。
(4) 隱私保護的問題: 患者的病歷、疾病的診斷或治療方式,都應該進行相關的保護措施。假設有不當的使用或外洩,會影響到病患的權益。
(5) 責任歸屬的不確定性: 在法律的議題裡面,這是蠻大的重點。假設未來我們很信任一個相關的人工智慧系統作出了一個決策判斷,但結果卻導致我們做了錯誤的決定,那最後責任到底歸屬在那一方?
(6) 監管的困難 :這一部分有蠻大的挑戰,由於AL/ML本身的複雜性,以及藥廠方出於利益及專利考量,許多資訊無法公開,造成監管困難。
現今,整體生技醫療產業面臨人工智慧監管的需求是肯定的,除了歐盟的人工智慧法案外,全球各地也有很多特別的規定。特別是在美國,像是美國食品藥物管理局(U.S. Food and Drug Administration,FDA),在最近幾年有很多針對新藥開發使用AI的一些徵詢意見,包含針對一些人工智慧智慧醫療器材的方面的要求、也有針對像是GMLP如何成為一個良好的學習實踐的意見。
備註:
作者:
李淑蓮
現任:
北美智權報總編輯
學歷:
文化大學新聞研究所
經歷:
北美智權報主編
半導體科技雜誌(SST-Taiwan)總編輯
CompuTrade International總編輯
日本電波新聞 (Dempa Shinbun) 駐海外記者
日經亞洲電子雜誌 (台灣版) 編輯
Facebook
在北美智權報粉絲團上追踪我們
Please enable JavaScript to view the comments.