騰訊發布中國首份可解釋AI報告!層層分析「套娃式」AI演算法
- 2022 年 1 月 21 日
- AI
-
可解釋 AI 的概述部分,主要概述了機器學習模型所面臨的可解釋性挑戰,可解釋 AI 的意義,可解釋 AI 與透明度、問責制,以及可解釋 AI 局部和全局可解釋的兩個維度。 -
可解釋 AI 發展趨勢部分,主要解釋了AI的透明性和可解釋性逐漸成為立法和監管關注的焦點,對政府公共部門使用的 AI 系統提出較高的透明度與可解釋性要求,對商業領域的AI系統在可解釋性方面避免作「一刀切」要求,行業積極探索可解釋AI的技術解決方案。 -
在可解釋 AI 的行業實踐部分,主要介紹了Google模型卡片(Model Cards)機制,IBM 的 AI 事實清單(AI Fact Sheets)機制,微軟的數據集數據清單(datasheets for datasets)機制,其他可解釋性AI工具以及可解釋AI的騰訊實踐。 -
在第四部分,主要講述了對可解釋AI未來發展的幾點看法,包括立法和監督宜遵循基於風險的分級分類分場景治理思路;探索建立合理適度的、適應不同行業與應用場景的AI可解釋性標準;探索可解釋的替代性機制,形成對AI演算法的有效約束;引導、支援行業加強可解釋AI研究與落地,確保科技向善;增強社會公眾的演算法素養,探索人機協同的智慧範式。
即使AI系統並非完全可解釋,我們也可以利用AI系統來提高決策的透明度。對人類決策的解釋,也許不能準確反映出影響人類決策的因素或無意識偏見。實際上,即使 AI 系統所做出的決策並不能被完全解釋,但相比理解人類如何做出類似決策,我們也可以更好地理解AI系統在整體上是如何做出決策的。而且,AI的最大價值在於可以在複雜情形中發現、識別超出人類理解的模式( pattern ),因此根據定義,這樣的AI系統不會以人類可以理解的方式具有完全的可解釋性。就像取得駕照,相信汽車可以安全駕駛,並不需要人人都成為專業的汽車工程師一樣,當使用AI系統時,解釋並不總是必須的。長遠來看,政府、社會、企業、行業、科研機構、用戶等主體需要共同探索科學合理的可解釋AI落地方案及相關的保障與防護機制,推動科技問雪。
2021-12-26
2021-10-11
2021-04-02
雷峰網雷峰網
雷峰網雷峰網