科技巨頭與初創(chuàng)公司紛紛出手 AI醫(yī)療發(fā)展急需找到一個平衡點
2019年12月17日,美國國家醫(yī)學院(NAM)發(fā)布《醫(yī)療人工智能:希望·炒作·虛夸承諾·危險》報告,該報告論述歸納了醫(yī)學領域AI研究和實踐,但也指出目前AI應用的挑戰(zhàn)和局限。
近幾年,“AI+醫(yī)療”的概念被炒得火熱,無論是科技巨頭還是初創(chuàng)企業(yè)都爭相涌入。所謂的“AI+醫(yī)療”,其實是人工智能在醫(yī)療領域的運用與發(fā)展,其應用主要表現在智能診斷、智能影響識別(如CT影像病灶識別)、智能健康管理、智能醫(yī)藥研發(fā)和醫(yī)療機器人等方面。
在降本增效方面,業(yè)界普遍看好“AI+醫(yī)療”的前景,因為醫(yī)療行業(yè)發(fā)展到今天,全世界都面臨著同樣的問題,即醫(yī)療資源和社會需求及支出之間越來越突出的供需矛盾。美國醫(yī)學聯合委員會2016年4月發(fā)布的研究報告稱,未來10年美國將面臨61700到94700名醫(yī)生缺口。
除了優(yōu)秀醫(yī)生的缺失,醫(yī)療成本也越來越高。以美國醫(yī)療保健支出為例,根據美國《健康事務》雜志的最新報道,美國的醫(yī)療保健支出在2018年增長了4.6%,達到3.6萬億美元,增速高于2017年的4.2%。
實際上,人口老齡化、慢性病增多、新藥研發(fā)費用都是不斷推高醫(yī)療成本的因素。如何在不降低醫(yī)療服務質量的前提下降低醫(yī)療成本,成為各國政府面臨的難題。而以深度學習為基礎的人工智能技術恰好契合醫(yī)療行業(yè)的需求。
搶占AI醫(yī)療市場 科技巨頭與初創(chuàng)公司紛紛出手
20世紀70年代,人工智能專家系統(tǒng)開始參與參與到疾病的診療中,但尚不成熟。1997年,達芬奇機器人手術系統(tǒng)研發(fā)成功,2000年美國食品藥品監(jiān)督管理局(FDA)批準應用于臨床。2011年,人工智能在醫(yī)學影像識別和自然語言理解方面的輔助診療系統(tǒng)的進步引人注目。
近幾年,IBM、谷歌、微軟、亞馬遜、臉書、蘋果等科技巨頭都在人工智能領域投入大量的資源,建立龐大的人工智能團隊,搶占人工智能市場。這一戰(zhàn)火也延續(xù)到了醫(yī)療健康領域,試圖用人工智能改變甚至顛覆傳統(tǒng)醫(yī)療健康行業(yè)。
以IBM公司為例,早在2013年,IBM就開始與全美綜合醫(yī)院排名前四的克利夫蘭診所進行全面合作,研究如何利用IBM的“沃森(Watson)”人工智能系統(tǒng)提高護理水平。沃森健康部門成立后,IBM收購了一些醫(yī)療健康大數據提供商和分析商,與傳統(tǒng)醫(yī)療器械和藥物生廠商、銷售商,以及大型醫(yī)院和醫(yī)療機構展開合作。在此基礎上,IBM選擇腫瘤精準治療作為主攻領域。
AI醫(yī)療作為新興領域,IBM、谷歌等巨頭都僅僅是近幾年才入門,還有大量市場空間留給中小公司。因此,智能醫(yī)療領域的初創(chuàng)公司如雨后春筍般大批出現,這些企業(yè)通常根據自己創(chuàng)業(yè)團隊的特點和特長,專注于智能醫(yī)療的細分領域,如醫(yī)療影像與診斷、藥物挖掘、急癥室與醫(yī)院管理等。
AI醫(yī)療被“高捧” 大肆宣傳的背后被質疑“炒作”
美國大型咨詢機構APCO Worldwide公司在今年八月發(fā)表了一篇題為“Artificial Intelligence in Healthcare: Hype or Hope?”文章,質疑AI醫(yī)療究竟是“炒作”還是“希望”。文章認為,AI確實有很大的潛力改變醫(yī)療保健領域,但是對AI的宣傳可能過度,關于AI在醫(yī)學實踐中的應用仍存在爭議。對于AI和機器學習是否可以更大規(guī)模的為患者提供價值,許多醫(yī)療行業(yè)的領袖都持懷疑態(tài)度。
雖然人們對人工智能及相關技術(如手術機器人)的潛在前景存在普遍共識,但也有人擔心這些技術被過度推銷和炒作,從而在臨床中產生可信度問題。
中國陸軍軍醫(yī)大學的研究人員,近期進行的一項“患者對人工智能醫(yī)療的認知及信任度”調查顯示,對人工智能應用于臨床醫(yī)療,患者接受度和信任度最高的是醫(yī)療后勤環(huán)節(jié),其次為醫(yī)患接觸較少的醫(yī)療輔助環(huán)節(jié),在做手術等醫(yī)療核心環(huán)節(jié),人工智能介入的工作越多,占據角色越重,患者接受度和信任度越低。(參考自《中國醫(yī)學倫理學》期刊:患者對人工智能醫(yī)療的認知及信任度調查)
早在2017年9月,美國STAT公司(從事生命科學與藥品研制領域的深度報道)就刊文披露,IBM的“沃森”人工智能系統(tǒng)未兌現其承諾——超級計算機能夠帶來癌癥領域的一場革命。STAT公司發(fā)現,該系統(tǒng)不會創(chuàng)造新的知識,只是人工智能最基本的概念。并指出,世界各地的主要癌癥中心已經退出與IBM沃森的合作,因為他們沒有發(fā)現超級計算機可以實現它的承諾。
同年5月,資深技術投資風險公司Social Captial的創(chuàng)始人Chamath Palihapitiya在CNBC上甚至直接炮轟:“沃森就是一個笑話”。他認為,IBM的專長其實只是通過他們強大的營銷和市場能力,以及信息不對稱,去讓消費者為他們并不了解的服務買單。
醫(yī)學上的任何重大進步都必須建立在科學證據和同行評議的基礎上,有趣的是,IBM沃森以對商業(yè)知識產權的擔憂為由,拒絕了對超級計算機的癌癥應用進行同行評審的要求。
醫(yī)療數據共享與隱私保護 如何找到平衡點?
在真實的應用場景中,人工智能輔助醫(yī)療需要大量的數據積累,包括疾病診斷記錄、病人用藥效果、基因數據、家庭病史等。要實現這些數據的積累,就需要打破各個醫(yī)院和社區(qū)的壁壘,實現數據交換共享?;诖丝紤]美國建設了一個電子健康記錄系統(tǒng)(Electronic health records,EHRs),十年內積累了1000萬名病人的記錄。
在病人健康數據交換共享的同時,保護隱私問題也是重中之重。這一點上美國走在前列,1974年就通過《隱私權法》,后在2003年生效《健康保險攜帶與責任法》(HIPAA)。通過HIPAA規(guī)定了很多EHRs的隱私保護細則,對使用該系統(tǒng)也有明確的規(guī)定,是否可以對EHRs加以利用取決于信息是如何建立的、誰在維護以及當事人情況。
值得注意的是,美國政府在關注數據隱私性的同時,也幫助AI研究發(fā)展。2019年2月11日特朗普簽署啟動《美國人工智能倡議》行政令,提出將集中聯邦政府資源發(fā)展人工智能,該計劃的一個重要方向是面向學術界、醫(yī)療領域開放一些政府數據庫,便于人工智能項目積累所需要的數據量。
目前,國內的挑戰(zhàn)在于醫(yī)療保健行業(yè)的數據處于分散且非結構化狀態(tài),大量的歷史數據是膠片狀態(tài)。醫(yī)院是醫(yī)療數據的最大產生機構,現實中,沒有哪家醫(yī)院愿意把醫(yī)療數據共享出來。一方面數據屬于醫(yī)院財產,科室主任在未授權的情況下,無法分享。另一方面,院方需要考慮患者隱私問題。
國內的AI醫(yī)療初創(chuàng)公司需要病人的數據進行機器學習訓練時,需要挨家的和各家醫(yī)院去談,這樣就產生了很多“灰色地帶”。對此,中華醫(yī)學會放射學分會主任劉士遠曾建議,如果能以政府出面牽頭在一個省范圍內建一個大的數據中心,然后將該省所有醫(yī)院數據匯總使用。公司與數據中心談合作那可能更合法,對于推動AI醫(yī)療發(fā)展更加有效。
需要注意的是,在法律層面,國內法律暫未對個人健康隱私有進一步明確規(guī)范。2018年5月1日開始實施的《信息安全技術個人信息安全規(guī)范》,從個人信息的收集、保存、使用等角度提出保護個人信息安全應遵循的原則,但還是缺少針對醫(yī)療隱私保護的詳細法律法規(guī)。一旦有了國家意義上的病人數據共享系統(tǒng)(類似美國的電子健康記錄系統(tǒng)),隱私保護問題將更加急迫。
AI診斷失誤誰負責?
AI診斷的主體是醫(yī)療器械還是醫(yī)生?其在法律上是人還是物?這是探究醫(yī)療服務人工智能法律責任最基本也是最重要的問題。人工智能在法律上是否能被看作民事主體?
所謂的“民事主體”,就是能夠參與民事法律關系,且享有民事權利和承擔民事義務的主體。我國《民法總則》規(guī)定民事主體包括法人和自然人兩種類型。因此傳統(tǒng)觀點,AI診斷主體并不具有民事主體資格。
隨著AI診斷技術的迅猛發(fā)展,特別是在將來診斷水平可能超過人類醫(yī)生的情況下,法律是否應賦予AI診斷民事主體的資格,是急需解決的問題。
2016年,歐盟委員會的法律事務委員會提交了一項動議,建議將最先進的人工智能機器人定位為“電子人”,由此也引發(fā)了經久不息的爭論?!半娮尤恕睍@得特定權利和義務,并且其還需要像正常人一樣進行登記、納稅,從而診斷主體真正獲得民事法律主體的地位。
歐洲委員會投票通過了一份報告草案,該草案提議賦予機器人合法地位,并將它們歸類為“電子人” 截圖自《今日俄羅斯》
當然,各國對人工智能在醫(yī)療服務中的法律地位規(guī)定存在差異,日本就采取了不同思路。據《日本經濟新聞》2018年7月3日報道,日本政府將完善關于人工智能醫(yī)療設備的一系列規(guī)則,規(guī)定診斷的最終責任由醫(yī)生承擔。由于AI存在誤診的可能,因此日本厚生勞動省將把AI醫(yī)療設備定位為輔助醫(yī)生進行診斷的設備,基于《醫(yī)師法》規(guī)定“作出最終診斷和決定治療方針的責任由醫(yī)生承擔”。
高質量、普適性訓練數據 聚合整理存在挑戰(zhàn)
確保高質量的數據是人工智能和機器學習被廣泛采用的主要挑戰(zhàn)之一,人工智能和機器學習的成功實現需要對大量的各種來源的數據進行聚合。但是,有些數據源并不可靠,數據的驗證和不同數據集的連接可能是一個艱巨的過程,需要數據分析能力強、臨床經驗豐富的高技能和訓練有素的專家。
今年早些時候,諾華的首席執(zhí)行官Vas Narasimhan解釋了人工智能在藥物研發(fā)中應用的痛苦過程,“我們學到的第一件事是,擁有出色的數據來實際建立機器學習的重要性。在我們自己的工作室里,我們一直在做幾個大項目,我們不得不花費大部分時間來整理數據集,然后才能運行這個算法。我們花了幾年時間才整理完數據集”,Vas Narasimhan表示,人們低估了現有的高質量數據有多么少,整理和鏈接數據有多么困難。
除了保證數據高質量,用于模型訓練的數據具有普遍性也非常重要。而在國內,目前醫(yī)療AI的數據研究限于某一家醫(yī)院或幾家醫(yī)院的合作研究,數據輸入相對單一,局限于某一特定區(qū)域,由此建立的模型在更廣的范圍進行使用時可能不完全適用。
結束語
優(yōu)質醫(yī)療資源的缺少與醫(yī)療保健支出的增加,是各國面臨的難題,“AI+醫(yī)療”的方案具有很大的潛力解決該問題,但在各路資本的追捧下,新概念似乎被過度“炒作”。在AI醫(yī)療的推進過程中,挑戰(zhàn)也是不斷出現,如何保護患者隱私?如何對AI診斷失誤追責?如何獲得高質量訓練數據?都是需要一一客克服的難題。