哪些保健品和藥物不能同服?這個AI搜索引擎能告訴你
- 2019 年 10 月 31 日
- 筆記
葯不能隨便吃,葯和葯是會發生反應的。
補充劑 (如保健品) 也不能亂吃,它們和藥物之間,也可能相互作用。
舉個例子,許多失眠小夥伴吃過的褪黑素,便與許多藥物有反應:
包括抗凝血葯、抗血小板藥物、抗驚厥葯、避孕藥、治療糖尿病的藥物和免疫抑製劑……
艾倫AI研究所的科學家,改造了著名的Google語言模型BERT,讓它學習過往的醫學文獻,來分析補充劑和藥物之間的作用,還開發了一個搜索引擎:
只要輸入一種補充劑,或者一種成分的名稱,就會得到一個列表。
一個推特網友,把褪黑素輸進去,收到的列表包含了520種可能和它有反應的物質。

不止如此,每種可能反應的物質,都有相關論文的對應句子,可以點開查看:

有了它,普通人也可以輕鬆查到,一種保健品,是不是可能和自己正在服的葯/保健品產生衝突。
當然,團隊也嚴正聲明:資訊僅供參考,不能代替醫生建議,所有情況都請諮詢醫生。
BERT:哪裡需要哪裡搬
那麼,團隊改造的BERT,是怎樣的一隻AI?
為了便捷,此處先介紹辭彙:
補充劑-補充劑相互作用,簡稱SSI。
補充劑-藥物相互作用,簡稱SDI。
藥物-藥物相互作用,簡稱DDI。
由於補充劑受到的監管不甚嚴格,有關安全性的資訊,並不十分充足。也就是說SSI和SDI的相關記載比較匱乏;
相比之下,藥物受到的監管就嚴格許多,有關藥物間相互作用 (DDI) 的數據,過往文獻也就記載得更加充分,形成了龐大的語料庫:

所以,機智的科學家想到先用DDI語料庫,訓練一個改造版的BERT,讓它學會分辨一個句子裡面,藥物和藥物之間有無關聯。訓練好的模型就叫BERT-DDI。
然後大概是考慮到,凡生物醫學文獻,用語習慣會比較接近。這樣,用DDI數據訓練好的模型,應該能遷移到SDI和SSI上。

第一步,從PubMed文獻庫裡面,抓來2200萬篇論文 (的摘要) 。這裡用到了艾倫研究所自家的學術搜索API,名叫Semantic Scholar。 第二步,用scispaCy從摘要里篩出帶有補充劑和藥物的句子,扔給一體化醫學語言系統 (UMLS) ,這樣就算一種補充劑/藥物有很多名字,也可以被統一成相同的表述。 第三步,把統一了表述的句子們,交給訓練好的BERT-DDI,讓它去判斷句子里一種補充劑和其他物質的關係。假如得到陽性 (Positive) 評定,就表示兩者有相互作用,要記錄下來。 第四步,所有的陽性結果,都對應了一些句子,以及句子所在的論文;只要把它們整合起來,再加上檢索功能 (支援模糊搜索) ,就有了SUPP.AI引擎。
這裡,包含了55946種相互作用,涉及了1923種補充劑,2727種藥物。
只要輸入補充劑的名字,輸入某個成分的名稱,都能搜索出可能與它相互作用的物質,以及依據的論文。

當然,也可以輸入藥物名稱,畢竟AI是用藥物數據訓練的。
那麼問題來了,用藥物數據訓練的BERT-DDI,在補充劑 (SDI/SSI) 身上做的判定,到底準不準?
測試環節,團隊手動標註了200個樣本,交給AI做判斷:
得到了87%的準確率,77%的真陽率,96%的召回率。
真陽率=真陽/ (真陽+假陽) 召回率=真陽/ (真陽+假陰)
基本告捷。
在補充劑的安全性資料不足的今天,這個搜索引擎也可以為普通人,提供一些「不能一同服用」的資訊了。
不過,由於數據是AI自動提取和分類的,沒有經過領域專家/醫療專業人員的驗證,艾倫研究所也在引擎上方,寫了一份免責聲明:
此處包含的資訊,不得用於代替執業醫師的建議。 此工具不可替代執業醫療保健從業者提供的護理,強烈要求用戶在所有情況下諮詢醫師。 如果某種藥物、補充劑,或它們的組合,沒有顯示警告,不可解釋為這種藥物、補充劑或組合是對患者安全、有效或適合的。 此處提供的資訊,僅供參考。 此工具可能無法覆蓋所有可能的、補充劑與藥物之間的相互作用。 如果您有健康問題或者疑慮,請諮詢醫師。 雖然,我們試圖提供準確、最新的資訊,但無法保證這一點。 此工具不為任何藥物或補充劑做背書,不對患者做診斷,也不推薦任何治療方法。
總之,這只是一個初步的嘗試。搜出什麼不得了的資訊,也要向醫生求助才好。
實驗室的人類們

SUPP.AI搜索引擎的一作,是來自艾倫AI研究所的Lucy Lu Wang。
本科畢業自麻省理工 (MIT) ,碩士畢業自約翰霍普金斯大學 (JHU) ,今年夏天從華盛頓大學 (UW) 博士畢業,專業是生物醫學和醫學資訊學 (BIME) 。
不過,Lucy和艾倫研究所的初次相識,還是2017年。從6月到12月,在那裡實習了半年。
今年,她終於正式進入艾倫研究所,成了一位青年研究員 (Young Investigator) 。
Lucy在接受採訪的時候說,資訊學會改變醫療的未來。而現在,她和小夥伴們才剛剛開始:

△ SUPP.AI搜索引擎的作者團
NLP醫療研究的缺失
AI越來越多地被整個醫療行業採用,其中最主要的是用電腦視覺來解決醫療問題,希望讓AI能夠像人類一樣讀懂核磁共振、CT、X光片,甚至比人類發現病症更加敏銳。
但是在醫療領域有很大一部分資訊並不是影像,而是以文字形式呈現。例如體檢報告、臨床實驗室報告、手術記錄和出院記錄等等。而這些資訊往往是非結構化,對電腦來說也是難以理解的。

另外醫學研究論文發表的速度相當之快,醫生需要從卷帙浩繁的學術雜誌中找到和自己領域相關的最初成果也是相當不易。
自然語言處理 (NLP) 技術的出現,會幫助解決這些問題,它能夠做到:
1、從大量醫療數據中學習特徵,然後使用獲得的知識來協助臨床的診斷和治療;
2、通過提供期刊、教材和臨床實踐這些醫療資訊來協助醫生,為患者提供適當的醫療服務。
不過相比於視覺,NLP在AI醫療領域的研究相對小眾,雖然也有像大公司,比如IBM Watson利用NLP來幫助醫生進行輔助診斷的嘗試,但收效甚微。

據IEEE Spectrum統計,8年來,IBM Watson與其他機構合作的25個具有代表性的項目中,僅有5個合作項目推出了AI醫療產品。
目前,美國監管機構只批准了少數AI工具用於醫院。並且,這些產品主要還是在視覺領域發揮作用。
NLP在醫療上面臨著重重困難。去年7月,據泄露的IBM內部機密文件顯示,Watson會給醫生提出一些「不安全的錯誤治療意見」,甚至在極端的診斷案例中,這些錯誤甚至可致患者死亡。
連2019年圖靈獎得主、深度學習三巨頭之一的Yoshua Bengio也認為,在醫學文本文件中,人工智慧系統無法理解其模糊性,也無法了解人類醫生注意到的微妙線索。到目前為止,沒有AI可以達到人類醫生的理解和洞察力。
Supp.ai的出現,表示NLP不必執著於醫學診斷,在藥物領域也可能有用武之地。
Supp.ai搜索傳送門:
https://supp.ai/
論文傳送門: https://arxiv.org/abs/1909.08135