在這裡看懂演算法!Google新AI工具解碼神秘演算法原理及過程

  • 2019 年 11 月 28 日
  • 筆記

新智元報道

來源:ZDNet

編輯:亮亮

【新智元導讀】目前,演算法的應用已經非常普遍,但是對大部分人並不知道演算法的決策原理和依據。對此,Google近日推出了「 Explainable AI」,幫助用戶理解演算法的決策原因、依據和過程,來使得演算法更加透明。通過這個工具,用戶可以看到各個演算法是怎麼實現的。來 新智元AI朋友圈 和AI大咖們一起討論吧。

雖然大多數人每天都會遇到演算法,但沒有多少人可以說他們真的了解AI的實際工作原理。但是,Google推出了一種新工具,希望能夠幫助普通人掌握機器學習的複雜性。

該工具被稱為 「可解釋AI」(Explainable AI),它可以向用戶解釋機器學習模型的處理結果是如何得出以及為什麼得出決策的。

Google表示,這樣做將用戶更加信任機器學習模型。這一點很重要,之所以大多數現有模型往往相當不透明,是因為多數用戶不清楚他們如何做出決定。

可解釋AI給演算法打分、量化數據因素,讓你更懂演算法

為此,可解釋AI工具將量化數據集中每個特徵對演算法結果的貢獻,每個數據因子都會有一個分數,來反映了它對機器學習模型的影響程度。

用戶可以拉出該分數,來了解給定演算法為何做出特定決策。例如,對於決定是否批准某人貸款的演算法模型,「可解釋AI」將顯示帳戶餘額和信用評分作為最決定性決策的依據數據。

Google雲首席執行官托馬斯·庫里安(Thomas Kurian)在倫敦的Google活動中介紹了該新功能,他說:「如果您使用AI進行信用評分,您會想知道為什麼演算法模型根據信用評分通過這個人卻拒絕了另外一個。」

他說:「對於在企業的業務流程中使用人工智慧的客戶,『解釋AI』可以幫助您理解為什麼人工智慧基礎架構能夠產生特定的結果。」換句話說,「可解釋AI」能否準確解釋特定機器學習模型為何得出結論,對於企業中負責最終決策的高層來說很重要。對於高度嚴格的行業來說,能夠相信AI作出的決策是至關重要的。

「可解釋AI」現在可以用於託管在Google的AutoML Tables 和Cloud AI Platform Prediction上的機器學習模型。

此前,Google也曾採取措施使演算法更加透明。去年,它推出了「假設工具」,供開發人員在使用Google的AI平台時,能夠可視化和探查數據集。

通過量化數據因素,「可解釋AI」可以給出更多見解,並讓更多用戶讀懂這些見解。

「模型卡」將演算法「黑匣子」打開,提供有關特定演算法詳細實用資訊

Google Cloud戰略主管Tracy Frey說:「您可以將『可解釋AI』與我們的假設分析工具配合使用,以全面了解演算法模型的行為。」

在某些領域,例如醫療保健,提高AI的透明度將特別有用。例如,在某些疾病診斷的演算法中,它會將醫生診斷病症並給出決策的過程可視化,並驗證這些癥狀不是假陽性或其他疾病的徵兆。

Google還宣布將推出所謂的「模型卡」的新概念,即提供有關特定演算法快速資訊的簡短文檔。

這些文檔實質上是用於機器學習的ID卡,其中包括有關模型性能和限制的詳細實用資訊。 Google表示,這將「幫助開發人員更好地決定將哪種模型用於什麼目的,以及如何負責任地部署它們。」

目前,Google已發布了兩個模型卡示例,其中提供了有關人臉檢測演算法和對象檢測演算法的詳細資訊。

面部檢測模型卡說明,該演算法可能會受到面部尺寸,方向或光線不足的限制。

圖片:Google模型卡

用戶可以閱讀有關模型輸出的資訊,如性能和局限性。例如,人臉檢測模型卡說明該演算法可能受到人臉尺寸,方向或光線不足的限制。

這次,宣布的新工具和功能是Google證明其遵守AI原則的嘗試的一部分,該原則要求在開發該技術時提高透明度。而今年早些時候,Google解散了成立一周的AI道德委員會,該委員會旨在監督其Google對人工智慧的使用。

參考鏈接:https://www.zdnet.com/article/googles-new-ai-tool-could-help-us-unlock-the-mysteries-of-the-algorithms-that-decide-everything/