Google AI 又來放大招,放射科醫生會被取代嗎?

  • 2019 年 12 月 18 日
  • 筆記

圖片來源:VentureBeat 所有者:VentureBeat

作者 | 李帥飛 編輯 | 唐里

據 VentureBeat 報道,Google AI 利用人工智慧系統,藉助數千個帶有高品質標籤的資料庫,精準解讀胸部 X 射線影像。論文已發表在《自然》雜誌。

近年來,Google AI 不斷將目光投向醫療領域。去年,紐約大學利用 Google 的 Inception v3 機器學習模型檢測出肺癌。今年 5 月,Google AI 和美國西北大學醫學院的科學家們創建模型,通過篩查檢測出肺癌,水平超過了有 8 年經驗的放射科醫生。

此外,Google AI 曾通過眼部掃描,診斷糖尿病視網膜病變的進展;Alphabet 子公司 DeepMind 的 AI 曾為 50 種眼部疾病推薦合適的治療方案,準確率高達 94%。

那麼,胸部 X 射線影像解讀是否也可以與人工智慧相結合?

實際上,用機器學習演算法分析胸部 X 射線影像,說起來容易做起來難。這是由於在通常情況下,訓練演算法所需的臨床標籤,是通過基於規則的自然語言處理或人工注釋獲得的,兩者往往不一致,且錯誤較多。同時,僅以影像為依據,很難收集包含大量病例的資料庫,並建立一致的、具有臨床意義的標籤。

近日,為推進 X 射線影像分類的目標,Google 的研究人員發現,利用人工智慧模型分析胸部 X 射線影像,可檢測四項指標:氣胸(肺萎陷)、結節和腫塊、骨折和氣腔模糊(樹芽征)。在一篇發表在《自然》(Nature)雜誌的論文中,研究小組稱,經專家獨立審查,這一模型已達到放射科醫生的水平。

這項最新研究,利用了來自兩個反識別資料庫的 60 多萬張影像。其一是與印度阿波羅醫院合作開發的資料庫,包含多年來從各地收集到的 X 射線。其二是由美國國立衛生研究院發布的 ChestX-ray14 公開影像庫,該影像庫曾為人工智慧研究提供支援,但在準確性方面存在不足。

縱觀整個研究,首先,研究人員開發了一個基於文本的系統,提取每張 X 光片的放射學報告並加以運用,為阿波羅醫院資料庫中超過 56 萬幅影像提供標籤。為了減少基於文本的標籤提取過程中可能出現的錯誤,並為若干 ChestX-ray14 影像提供相關標籤,他們專門招募放射科醫生,檢查這兩個資料庫中的約 3.7 萬幅影像。

下一步是生成用於模型評估的高品質參考標籤。三名放射科醫生通過小組合作的形式,審查所有結果,測試資料庫影像,並在線討論解決相互之間的分歧。這項研究的合著者也表示,通過這種方式,原先只能通過放射科醫生檢測到的結果,也能被準確地識別並記錄下來。

Google 指出,儘管這些模型的準確性總體上達到了專家水平,但各個資料庫的結果卻各不相同。例如,對於 ChestX-ray14 影像,同一放射科醫生檢測氣胸的靈敏度約為 79%,但對於其他資料庫,檢測氣胸的靈敏度僅有 52%。

Google 科學家 David Steiner 博士和 Google Health 技術負責人 Shravya Shetty 均為該論文做了貢獻,兩人在一篇部落格中提到:

資料庫之間的差異,證明了建立具有明確參考指標的標準化評估影像庫的必要性,方便在不同研究之間進行比較。但同時,將人工智慧和放射科醫生各自的優勢相結合,很可能是人工智慧應用於醫學影像解讀的最佳方式。

研究小組已經在開源中創建了 ChestX-ray14 資料庫,資料庫包含 2412 個訓練、驗證集影像,1962 個測試集影像,總共 4374 個影像。David Steiner 和 Shravya Shetty 表示,他們希望通過 ChestX-ray14 資料庫的判定標籤,為以後的機器學習奠定基礎,並推動機器學習模型之間的比較,從而更精準地解讀胸部 X 射線影像。