(香港文匯報 記者 曾業俊)全球不同行業正因人工智能(AI)技術進步而經歷重大變革,包括生物醫藥板塊,運用AI配合大數據來降低醫療成本、提升效率及品質,已是全球公共衞生趨勢。中山大學附屬第一醫院醫療大數據與人工智能研究中心主任王海波教授接受香港文匯報專訪時表示,AI能顯著提升醫療效率並減省大量成本,有潛力彌補醫護人手短缺及減低失誤,拯救更多生命,直接及間接帶來的經濟價值可達上萬億美元。他認為,中國醫療AI應用的發展將形成爆發性態勢。香港可以發揮其「超級聯繫人」及「超級增值人」的角色,善用醫管局真實詳盡的醫療大數據,加上本港大學的人才儲備和學術生態,配合粵港澳大灣區8,690萬人口的應用場景,在全球AI醫療競爭中脫穎而出。
從經濟價值而言,王海波指出,現時AI仍未能取代醫生,但可以大幅縮減醫生診療工作所需時間,從而提升醫療效率。目前全球醫療衞生面臨巨大挑戰,每年因心血管疾病、癌症、糖尿病等非傳染性疾病死亡的病人高達4,300萬人,惟全球醫護人力短缺約1,500萬人,43%的醫護人員在過勞狀態下工作。在這過程中,每年全球因醫療失誤導致的死亡人數達260萬人,帶來的直接及間接經濟損失高達上萬億美元。AI的應用除了可提高效率,減少失誤,拯救更多生命,產生巨大經濟價值;更可為醫護騰出時間用來關心及撫慰病人,提供更多無法以金錢衡量的人文價值。
醫療AI市場年均增速達43%
翻查資料,今年初世界經濟論壇發布《人工智能驅動健康的未來:引領潮流》報告,預計2024至2032年間人工智能(AI)醫療市場將以43%的驚人速度增長,到2032年市場規模將達4,910億美元。而據弗若斯特沙利文數據顯示,中國AI醫療市場規模亦正迅速擴展,料將由2023年的88億元人民幣增至2033年的3,157億元人民幣,複合年增長率達43.1%,可見AI醫療是具爆發式增長潛力的藍海市場。
內地將三種醫療AI納入收費
王海波補充,目前中國內地的醫療保障制度已經納入三種醫療AI收費,包括放射診斷(如電腦斷層掃描和核磁共振)和超聲檢查的AI輔助診斷,以及康復類AI項目。收費原則是同一服務項目下,醫院可以選擇由醫護人員完成,也可以選擇使用AI輔助,但只能收取一次費用,不能因同時使用AI和真人而重複收費。這將醫療AI目前的作用定位於「提質增效」,旨在鼓勵相對成熟的AI技術進入臨床應用,同時防止患者因新技術應用而產生額外經濟負擔。
對於中國醫療AI的發展現狀,王海波引用其在國際醫學期刊《新英格蘭醫學雜誌·人工智能》(NEJM AI)即將刊發的《中國醫療AI生態現狀》一文指出,年初橫空出世的中國人工智能DeepSeek-R1的推理能力可媲美全球領先的私有大模型(如GPT-o1和Claude Sonnet),其為開源大模型,任何人都可以免費自由下載,並在本地部署和改造該模型,實現使用AI時數據的本地儲存,避免數據外洩,特別適合對患者私隱和數據物理控制權有嚴格要求的醫療領域。DeepSeek-R1這類開源大模型推動了醫療AI技術普惠,讓世界各地的大學、醫院和研究者都能自由公平地獲取以往由大型科技公司壟斷的尖端AI能力,將惠及無數患者。
內地胰腺癌AI早篩模型獲國際肯定
關於中國醫療AI應用的典型案例,王海波舉例指,阿里巴巴達摩院與復旦大學附屬醫院等機構合作研發的胰腺癌AI早篩模型「DAMO PANDA」,偵測靈敏度為92.9%,特異性達99.9%,表現卓越。由於胰臟位於腹腔深處,且早期胰腺癌幾乎無明顯症狀,常規體檢難以發現,多數患者確診時已屬晚期,生存率極低。此項突破有望顯著提高早診率和治癒率。今年4月,該AI模型獲美國食品藥品監督管理局(FDA)授予「突破性醫療器械」資格,進入快速審批通道。這是AI大模型首次獲此認定。該模型在聯合國AI峰會上獲得高度關注,世界衞生組織數字健康合作中心宣布與達摩院展開戰略合作,推動癌症AI早篩技術的全球應用。他相信,中國醫療AI應用的發展將愈來愈多及快速,形成爆發性態勢。
對於香港發展醫療AI的潛力,王海波指出,數據是AI發展的關鍵。目前AI仍需依賴人類在真實世界產生的多樣性數據來進化。香港醫管局30多年來堅持獨立研發和不斷完善其臨床管理系統(CMS),統一了全港公立醫院服務系统的數據標準,累積了全球罕見的跨世代、大人群、細緻詳盡和標準化的真實世界醫療大數據,讓香港在醫療AI研發領域具備獨特數據優勢。人才和應用場景的需求牽引也是醫療AI發展的要素。香港擁有多間世界級大學的人才儲備,以及大灣區8,690萬人口豐富多元的醫療健康應用場景,使得香港有機會在全球醫療AI創新浪潮中獨佔鰲頭。香港可以舉辦更多醫療健康峰會,匯聚全球各地的醫療專家及AI專家來港交流,在醫療AI國際合作上為國家發揮「超級聯繫人」及「超級增值人」的角色;並善用本港大學的人才和學術生態,將AI滲透到整個醫療教育的過程中,培育醫療AI人才。香港若能充分利用「一國兩制」帶來的得天獨厚資源和競爭優勢,可以在AI的全球競爭與合作中在醫療AI領域佔據一枝獨秀的地位。
醫療科技容錯性低 落地過程嚴謹
創科之路往往要面對將實驗室成果轉化為具體產品或服務的「落地」困難,醫療AI因為牽涉人的生命,轉化應用的條件比一般科技更為嚴格。中山大學附屬第一醫院醫療大數據與人工智能研究中心主任王海波教授表示,AI醫療主要面對兩方面的落地困難,首先在各行業裏應用AI技術作為底層驅動,需要接通業內原本的生態網絡,而醫療生態牽涉的持份者(Stakeholders)特別多,所以到真正落地還需要一段時間和過程去磨合。
AI應用於醫療 信任度較低
第二點是,由於醫療牽涉人的生命,因此醫療科技的容錯性特別低,落地過程中需要非常嚴謹科學地衡量其有效性和風險。而目前AI的運行機理就像「黑盒」一樣,人們仍未能從數學和工程上完全解釋它是如何運作的。他直言:「AI犯錯的時候,我們不知道為什麼;AI做對的時候,我們也不知道為什麼,這種不可解釋性既導致實際應用時的不確定性,也導致人們對AI在醫療上應用的信任度較低。」
急需加強醫療AI臨床研究
王海波指出,要提升AI的可靠和可信程度,可以透過真實世界的醫療數據解決,包括運用成熟的已有臨床研究方法衡量醫療AI對病人帶來的效益和風險。然而,現時全世界對於運用臨床數據來驗證AI這個工具的研究仍遠遠不足,目前在AI的臨床研究之中,只有5%使用了真實世界的病人數據,因此急需加強醫療AI的臨床研究,提供更多更高質量的臨床證據,讓醫療界和公眾更全面準確地掌握AI技術可能對患者帶來的好處和風險。
此外,AI算力、數據共享、病人私隱,以及相應的法律法規等,都是醫療AI落地需要面對的挑戰。王海波認為,無論政策制定者、醫護人員和公眾都更需要加強AI素養(AI literacy),了解這種顛覆性技術的特性、特長和局限,才能在使用過程中保護好病人。社會各界都需要普及AI知識,只有充足的知識養分,才能滋養健全平衡的政策、培育健康高效的生態來配合醫療AI落地應用的發展。
監管存難點 制度恐追不上技術進化
顛覆性的創新科技往往需要全新的法律法規配合才得以落地應用,醫療AI亦不例外。中山大學附屬第一醫院醫療大數據與人工智能研究中心主任王海波教授表示,目前中國及歐美對醫療AI的監管都基本圍繞AI的有效性、風險及倫理三方面展開。AI的監管困難在於其不斷進化的特性。以往的醫療器械進行臨床試驗時是固定的版本,不會改變;惟AI的特點和優勢是可以不斷演變進化,這就產生了全新的監管課題。中國和歐美對此新課題的解決方案均致力於建立全生命周期的監管模式(Life Cycle Supervision Model),包括「上市前審批(Pre-Market Approval)」和「上市後監管(Post-Market Surveillance)」,亦即AI上市後的進一步算法演變還需後續監管,各國對於這兩種監管的側重點各有不同。
各地對AI器械風險界定標準不同
中國對醫療AI器械風險的界定非常嚴格,目前幾乎所有獲批的醫療AI器械都被納入高風險範疇,需進行嚴格的技術測試和臨床驗證後,才能取得官方批准上市使用。相較而言,美國食品藥品監督管理局(FDA)批准的醫療AI器械大部分被歸類為風險相對較低的第二類,強調在上市後透過持續監管來處理可能出現的問題。歐洲則兼顧醫療器械的風險分類和倫理規範,細緻地提出針對不同應用場景的倫理與監管要求。然而,由於醫療AI技術仍然處於快速發展且相對較新的階段,各國監管機構仍在逐步調整和完善相關政策,以應對其帶來的風險與挑戰。各國監管政策的實際效果如何,以及能否有效兼顧風險防範的同時促進AI產業發展,仍需透過長期且持續的實踐觀察來確定。
AI診斷結果或間接影響醫生判斷
王海波強調,當試圖界定醫療AI出錯時的責任歸屬時,往往會面臨一個複雜的現實局面:醫療AI從研發、評估、測試、採購、部署到臨床應用,每個階段都有各自不同的持份者,令界定責任變得非常不容易。同時,隨着醫療AI的廣泛應用及研究深入,一些新的現象也開始浮現。例如,去年發表於國際醫學期刊《新英格蘭醫學雜誌·人工智能》(NEJM AI)的一項研究發現,當放射科醫生反覆接觸到AI的診斷結果後,他們的專業判斷會在不自覺中逐漸與AI的判斷趨同。該研究指出,AI即使僅透過潛移默化地影響醫生的專業認知,也可能實質性地改變患者的診斷和治療結果。
他再舉一例,廣州中山大學附屬第一醫院肖海鵬研究團隊在著名醫學雜誌《刺針數字醫療》(Lancet Digital Health)發表的研究顯示,用AI自動判斷甲狀腺結節的良惡性時,AI的準確度堪比該頂級三甲醫院的高級醫生,優於經驗尚淺的低年資醫生。問題在於當醫生知道了AI與自己的檢測結果不一樣時,有超過一半(51%)的醫生將診斷結果改成跟AI的判斷一致,但當中有四分一修改診斷的案例中人類醫生的原先首診是正確,反而AI的判斷是錯誤。在這個受控的研究環境下沒有病人真正受到這種AI誘導的誤診的傷害,但隨醫療AI的廣泛應用,如何最大限度地減少這種傷害並界定責任已是刻不容緩的法律和倫理問題。
科技僅輔助性質 診療屬醫生責任
AI診療出錯時應由AI抑或醫生承擔責任?王海波認為,在現階段,無論是從法律、倫理,還是技術可信度方面,AI都僅僅被定位為輔助角色,醫療過程中的每項決策都應由人類來最終拍板,這種「人在環中(Human in the loop)」的設計能夠防止將病人直接暴露在AI的自主決策下。而從法律而言,由於醫生是現今醫療體制當中唯一擁有執照做出診療決定的主體,因此需負上最終法律責任。他直言:「更重要的原因是,倫理是人的價值判斷,而不是機器的價值判斷,所以最終應該由人來承擔責任。人類不能因為科技進步而放棄自身的倫理責任。科技是為人服務,人不是科技進步的手段,人是科技進步的目的。」
(來源:香港文匯報A09:文匯專題 2025/06/09)