在這裡看懂算法!Google新AI工具解碼神秘算法原理及過程
- 2019 年 11 月 28 日
- 筆記
來源:ZDNet
編輯:亮亮
【新智元導讀】目前,算法的應用已經非常普遍,但是對大部分人並不知道算法的決策原理和依據。對此,谷歌近日推出了「 Explainable AI」,幫助用戶理解算法的決策原因、依據和過程,來使得算法更加透明。通過這個工具,用戶可以看到各個算法是怎麼實現的。來 新智元AI朋友圈 和AI大咖們一起討論吧。
雖然大多數人每天都會遇到算法,但沒有多少人可以說他們真的了解AI的實際工作原理。但是,Google推出了一種新工具,希望能夠幫助普通人掌握機器學習的複雜性。
該工具被稱為 「可解釋AI」(Explainable AI),它可以向用戶解釋機器學習模型的處理結果是如何得出以及為什麼得出決策的。
谷歌表示,這樣做將用戶更加信任機器學習模型。這一點很重要,之所以大多數現有模型往往相當不透明,是因為多數用戶不清楚他們如何做出決定。

可解釋AI給算法打分、量化數據因素,讓你更懂算法
為此,可解釋AI工具將量化數據集中每個特徵對算法結果的貢獻,每個數據因子都會有一個分數,來反映了它對機器學習模型的影響程度。
用戶可以拉出該分數,來了解給定算法為何做出特定決策。例如,對於決定是否批准某人貸款的算法模型,「可解釋AI」將顯示帳戶餘額和信用評分作為最決定性決策的依據數據。
谷歌雲首席執行官托馬斯·庫里安(Thomas Kurian)在倫敦的Google活動中介紹了該新功能,他說:「如果您使用AI進行信用評分,您會想知道為什麼算法模型根據信用評分通過這個人卻拒絕了另外一個。」
他說:「對於在企業的業務流程中使用人工智能的客戶,『解釋AI』可以幫助您理解為什麼人工智能基礎架構能夠產生特定的結果。」換句話說,「可解釋AI」能否準確解釋特定機器學習模型為何得出結論,對於企業中負責最終決策的高管來說很重要。對於高度嚴格的行業來說,能夠相信AI作出的決策是至關重要的。
「可解釋AI」現在可以用於託管在Google的AutoML Tables 和Cloud AI Platform Prediction上的機器學習模型。
此前,谷歌也曾採取措施使算法更加透明。去年,它推出了「假設工具」,供開發人員在使用谷歌的AI平台時,能夠可視化和探查數據集。
通過量化數據因素,「可解釋AI」可以給出更多見解,並讓更多用戶讀懂這些見解。
「模型卡」將算法「黑匣子」打開,提供有關特定算法詳細實用信息
Google Cloud戰略主管Tracy Frey說:「您可以將『可解釋AI』與我們的假設分析工具配合使用,以全面了解算法模型的行為。」
在某些領域,例如醫療保健,提高AI的透明度將特別有用。例如,在某些疾病診斷的算法中,它會將醫生診斷病症並給出決策的過程可視化,並驗證這些癥狀不是假陽性或其他疾病的徵兆。
谷歌還宣布將推出所謂的「模型卡」的新概念,即提供有關特定算法快速信息的簡短文檔。
這些文檔實質上是用於機器學習的ID卡,其中包括有關模型性能和限制的詳細實用信息。 谷歌表示,這將「幫助開發人員更好地決定將哪種模型用於什麼目的,以及如何負責任地部署它們。」
目前,Google已發佈了兩個模型卡示例,其中提供了有關人臉檢測算法和對象檢測算法的詳細信息。

面部檢測模型卡說明,該算法可能會受到面部尺寸,方向或光線不足的限制。
圖片:Google模型卡
用戶可以閱讀有關模型輸出的信息,如性能和局限性。例如,人臉檢測模型卡說明該算法可能受到人臉尺寸,方向或光線不足的限制。
這次,宣布的新工具和功能是Google證明其遵守AI原則的嘗試的一部分,該原則要求在開發該技術時提高透明度。而今年早些時候,谷歌解散了成立一周的AI道德委員會,該委員會旨在監督其谷歌對人工智能的使用。
參考鏈接:https://www.zdnet.com/article/googles-new-ai-tool-could-help-us-unlock-the-mysteries-of-the-algorithms-that-decide-everything/