不只下圍棋而已 Google人工智慧正在對抗失明及癌症

人工智慧(Artificial Intelligence,AI)近幾年發展快速,Google未來的方向已確定從行動優先(Mobile First)轉移到AI優先(AI First),Gartner也預測AI將融入人類生活,無所不在。到底AI除了打敗圍棋高手、化身語音助理、自動駕駛汽車之外,還有什麼神奇妙用呢?Google分享了他們將機器學習應用在醫療上的成果,靠著聰明的圖像辨識能力,可幫助人類遠離失明及癌症病痛。

Google台灣於8月8日請來Google研究團隊產品經理彭浩怡(Lily Peng)博士,分享Google機器學習在醫學影像上的應用。她首先說明人工智慧(Artificial Intelligence,AI)、機器學習(Machine Learning)與深度學習(Deep Learning)的關係,其實機器學習屬於人工智慧的一部分,而深度學習又是屬於機器學習的一部分。

人工智慧、機器學習與深度學習的關係
▲ 人工智慧、機器學習與深度學習的關係(圖/Matt Kan攝)

人工智慧的發展始於1960年,其中最具前景、最被看好的就是機器學習領域,不像以往人類需要告訴機器做什麼事,而是用各種範例去讓機器自學。其中深度學習在過去五年有非常好的發展、成效卓著。歸功於近年來累積的資料量越來越龐大,電腦運算能力也越來越強,因此可用龐大又複雜的模型來訓練。

深度學習神經網路近年發展曲線圖
▲ 近幾年來由於運算能力提升,資料量、模型量等規模變大,讓深度學習神經網路的正確率成效卓著(圖/Matt Kan攝)

例如在電腦視覺社群,每年都會舉辦一個ImageNet圖像標籤挑戰賽,讓各大公司的演算法從1000個標籤中選出和指定圖片最接近的五個標籤,看看誰最準確。這個比賽自2011年之後都是由深度神經網路(Deep Neural Network,DNN)奪得冠軍,在2015年已超越人類表現。

ImageNet圖像標籤挑戰中,深度神經網路的表現結果
▲ ImageNet圖像標籤挑戰中,深度神經網路選出的五個標籤,最接近的那個都已經和照片相符了(圖/Matt Kan攝)
近幾年深度神經網路辨識圖像的成長長條圖
▲ 從2015年開始,深度神經網路辨識圖像的準確率已經超越人類(圖/Matt Kan攝)

卷積神經網路(Convolutional Neural Nets)也是一種深度學習架構,對於影像辨識的正確度很高。例如以前要電腦找出一張熊貓的照片,需要先輸入熊貓的特徵是什麼,這個過程稱為「特徵工程(Feature Engineering or “Hand-crafting Features”)」;但透過卷積神經網路,只要給電腦很多照片,告訴電腦哪些是熊貓的照片,哪些不是熊貓的照片,電腦就自己學會了。

深度神經網路識別熊貓圖的過程
▲ 透過卷積神經網路,不需要手動輸入圖像特徵,就可以讓電腦自學找出熊貓的照片(圖/Matt Kan攝)

以往傳統電腦視覺辨識圖像的重點會放在特徵工程,現在則是:準備資料、模型架構、數據優化比較重要。提供的資料是越多越好,根據一般經驗法則,每批準備5000份資料就夠了,例如「是熊貓」的照片與「不是熊貓」的照片要各5000張。

卷積神經網路與傳統電腦視覺辨識圖像的著重點比例圓餅圖
▲ 卷積神經網路與傳統電腦視覺辨識圖像的重點不同(圖/Matt Kan攝)

彭博士舉了兩個Google深度學習在醫學影像上的應用,一個是協助診斷糖尿病視網膜病變(Diabetic Retinopathy,DR),一個是幫助檢測淋巴結中的乳腺癌轉移瘤。這兩個案例都是由Google 20%專案(20% time)衍生出來,以Google開源機器學習系統TensorFlow來應用。彭博士本身也是位醫生,當初利用自己20%的自由時間投入將深度學習應用在糖尿病視網膜病變判別上,後來變成Google的大專案。

糖尿病視網膜病變是全球失明人數攀升的主因,為預防失明,糖尿病患者每年都應進行一次篩檢,常見作法是檢查眼底圖像,對視網膜病變的嚴重程度進行評估。而印度因缺乏近12.7萬名眼科醫生,導致45%的患者在接受診斷前失明。這並不應該發生,因為糖尿病視網膜病變是可以預防的。

糖尿病視網膜病變眼底圖像
▲ 眼科醫生透過觀察眼底圖像,診斷糖尿病視網膜病變的程度(圖/Matt Kan攝)

Google研究團隊因此與美國EyePACS及印度三家眼科醫院合作,運用深度神經網路學習判讀眼底圖像。他們創建了一個128,000張圖像的資料庫,透過26層卷積神經網路來學習。最終的辨識結果,與54名專業眼科醫生的辨識結果達到高度一致性。

深度神經網路演算法與眼科醫生診斷結果的比較
▲ 深度神經網路演算法的F-Score值(結合靈敏度和特異性的度量,最大值為1)為0.95分,稍微高於眼科醫生的F-Score中位數0.91分;左側圖表上的黑色曲線為神經網路演算法的結果,彩色點是八位眼科醫生的辨識結果,顯示有高度一致性,黑色鑽石點指出演算法的高靈敏度與高特異性(圖/Matt Kan攝)

目前這個演算法正在進行臨床試驗,Google持續與視網膜研究領域的專科醫生合作,以建立更完整的量化評量標準,也和美國醫療機關討論安全規範。未來會和設備廠商合作,製造合適的相機來拍攝眼底圖像。

癌症活體組織切片的判斷,是複雜且需要長期累積經驗的過程,即使受過訓練的病理師,對一名病人的診斷也可能各異,進而發生誤診的情況。例如每12人的乳腺癌切片中,就有1人可能被誤診,前列腺癌每7人就有1人可能被誤診。其中一個原因是每位患者都有很多病理切片,這些切片在40倍放大時有10億像素(約普通相機拍1000張),對醫生而言在資料量、時間上都是相當大的挑戰,因此需要建立演算法來協助。

癌症活體組織切片誤診統計
▲ 癌症活體組織切片的判斷,會出現漏診或過度診斷的狀況(圖/Matt Kan攝)

Google利用現成的Inception(又名GoogLeNet)卷積神經網路來訓練這個演算法,以不同的放大倍率檢查組織切片圖,就像病理學家做的一樣,就可以不受時間限制,長時間檢測病理切片。結果經由這個演算法產生的病理預測熱圖,腫瘤定位準確率(FROC)達到89%,超越在沒有時間限制下,病理學家的準確率73%。

淋巴結活體組織切片病理預測熱圖
▲ 圖B是腫瘤位置,圖C是演算法進行早期檢測的結果,可見有一些正常部位也標記出來了,圖D是修飾過現在的模型,只顯示有問題的癌細胞(圖/Matt Kan攝)

不過以演算法來檢查,有92%的機會偵測到癌細胞,卻有8個假陽性結果;病理學家檢查的話有73%的機會,卻是0個假陽性結果。因此理想的狀況,最好是病理學家與演算法一起來進行。

彭博士認為深度學習是可以輔助醫生的,下一步的重點是臨床驗證,目前正在美國及世界各地進行中,因為實際應用比單純的實驗環境更複雜,必須在實際臨床有好的效果才行。也需要時間讓醫療團隊信任這個方法,看醫生能否接受。在工作流程與使用者介面設計也需要研究,讓演算法能無縫接軌到醫生的工作流程,不造成醫生工作的阻礙。

Google台灣董事總經理簡立峰表示,Google深度學習在糖尿病視網膜病變上用了約13萬張眼底圖像,台灣糖尿病患者有100多萬人,資料量相對是非常多的,有很高的辨識價值,其他領域不見得有這麼多資料量。台灣要做這方面的研究不但有資料,也有深度學習平台。很多疾病都有在地特色,每個國家都應有自己的研發團隊,AI在健康照護這個領域很值得投入。

例如台灣長期照護很缺人,若發展AI輔具來替代人力,如自動輪椅等,就可以把國民的健康時間拉長。又比如沒有電梯的五樓公寓,老年人無法下來運動、提早老化,要是能有協助下樓的輔具就很好。台灣在醫療照護、資通訊領域都很強,要是發展AI在醫療領域的應用,大概10年至20年可有成果。

史塔夫短評:長命百歲越來越有機會了。