艾耕科技CEO韋嘯:可信AI助力內容創作實現智慧化

  • 2021 年 7 月 22 日
  • AI

作者 | 維克多

編輯 | 琰琰

7月9日,在2021年世界人工智慧大會的可信AI論壇上,艾耕科技CEO韋嘯進行了題為《可信AI助力內容創作實現智慧化》的報告。他在報告中指出了AI內容生產在「可信」方面遇到的挑戰,並給出了三條提高AI內容生產可信性的技術建議: 
1.知識圖譜沉澱行業專家經驗提升可控性;
2.專家系統與局部模型提升可解釋性和可調性;
3.強調人+機器協同的工作模式。
此外,在報告結束,AI科技評論和韋嘯進行了一場關於「AI發展路徑」的交流,他認為當前人工智慧想要取得突破性進展,必須等待其他領域,例如生物學領域,有突破性的發現。

1

AI助力內容生產

今天的演講題目是《可信AI助力內容創作實現智慧化》,分享一下AI在內容生產方面遇到的可信挑戰。回顧互聯網的前世今生,從門戶網站到搜索引擎、到社交網路、再到超級APP,互聯網發揮的核心作用是:分發內容。而內容生產屬於互聯網的上游,每年製作物聯網流通的內容成本超過千億。
人工智慧(AI)作為技術發展的橋頭堡,未來十年的技術熱點,其一定會在行業里發揮巨大的作用。

目前,AI已經能夠生產各種各樣的內容,例如強大的GPT-3模型,其內容生成能力一度讓人類驚呼。但實際上,GPT-3生成的大量內容都是胡說八道的,沒有辦法直接使用。這對應的是AI穩定性問題,即生成演算法不可控。
可解釋性,可調性,是AI生產內容過程中碰到的另一個問題。舉個例子,當我們用AI進行影片生產時,無論是半自動還是全自動的方式,採用同一模板生成的影片,在社交平台上獲得的點贊數和流量卻不一樣。至於為什麼?用戶希望能夠有一個解釋,即是演算法出了問題還是其他方面的問題?這就是內容生產遇到的AI可解釋性挑戰。
公平性和商業道德是AI內容生產遇到的另一個問題,當我們用AI給客戶提供數千篇圖文內容的時候,雖然也能獲得和人類稿件相同的點贊率和完讀率,但有些客戶並不滿足,他們期望通過工具生產大量的不可信的數據,從而獲得利益。

其實,內容生產和內容生成不同,今天AI技術大多僅支援內容生成,內容生產意味著要為產業賦能。內容生成里的專家主要有主編、編輯和運營。而內容生產需要將AI技術有機整合成一個專家系統,包含上述一系列的角色,對於不同角色進行不同程度的賦能,從而提高內容生產的能力。這也是我們一直打造的品牌「AIZAO, AI造」。
它的邏輯是先依靠電商或者品牌的營銷專家,然後基於他們對行業的理解,用知識圖譜支撐智慧素材庫,生產出合適的圖、文內容,最後加上運營數據的迴流,就可以構成生產力的大幅度提升。
為了讓這一AI系統生成的內容更為可信,我們做了如下的嘗試:1.知識圖譜承載專家經驗提升可控性;2.專家系統與局部模型提升可解釋性和可調性;3.強調人+機器協同的工作模式。AI一定會犯錯,人機協同是提高AI可信性的舉措之一。
總結一下,如果想搭建一個更為可信的內容生產平台,需要遵守三條原則,第一,堅守向善價值觀,不做惡;第二,建立評估體系,保證系統生產的內容可信;第三,明確演算法系統的責任。我們可以感受到,互聯網充滿了不可信的內容,已經對社會產生極大負面的價值,我們希望演算法設計出之後,其所承擔的責任能有清晰的界定和邊界。

2

對話韋嘯:學習型人工智慧在等待生物學(腦科學)上的突破

AI科技評論:請問您如何看待可信AI?

韋嘯:可信AI 包括幾個方面:穩定性、可解釋性、可調性、公平性等等。這意味著可信AI不是一個概念,更多的衡量如何把一個技術更好的賦能各個場景。
關於構建可信AI需要四方面的發力:
1.技術和學術上的突破。機器學習模型中的黑盒性是AI可信問題的源頭之一,很多AI技術如自動駕駛,AI醫療影像的應用,背後其實有可解釋性,可控制性的缺陷,邢波老師的Petuum,就考慮了如何提升黑盒模型的debuggability。楊強老師主推的聯邦學習,又在一定程度上能解決數據隱私問題,所以技術的發展,肯定能夠帶來更多可信的解決方案。 
2.政策、法律衡量責任。一個演算法存在開發者和使用者,但演算法出錯,如何衡量雙方的責任,是需要政策制定者考慮的事情。
3.遵守商業道德準則。演算法即技術,技術中立,向善的人使用,會產生好的結果,心懷不軌的人使用,會產生惡果。
4.明確可信的目標。所有的演算法都針對一個目標進行優化,我們在設立這個目標的時候,能否將可信作為一個目標衡量?

AI科技評論:相比深度學習,傳統AI模型的可解釋性比較好,您如何看待兩者的關係?
韋嘯:我舉個例子,美國人工特別昂貴,很多車主自己動手修車。衡量一個修車匠是否能「打」的一個標準是:修車工具箱里工具種類是否豐富。這個工具箱可能有一些17世紀就有的改錐,也可能有新開發的智慧電鑽。其實,老改錐還是新電鑽都存在於工具箱里,使用哪種鋸子修車取決於具體的場景。
類比到AI內容生產領域,GPT-3這一模型確定能夠提高基底模型表現,在從語料庫提取特徵方面,非常高效。但是,有些場景要求生成的內容絲毫不能出錯,例如寶馬X5的排量是2.4,如果AI生成的是2.5,顯然就不符合要求。因此,這時候如果採用經典的PCFG,效果反而會更好。
因此,深度學習也好,傳統模型也好,它們都在工具箱里,如何使用,關鍵要看具體的場景。所以,我們創業者也要摒棄一個觀點:新工具不一定比傳統工具產生更大的商業價值,畢竟一些比較老的模型研發成本比較低,新模型(深度學習)研發成本比較高。
AI科技評論:AI內容生成領域,遇到哪些可信方面的挑戰?
韋嘯:正如我演講中提到的,第一是穩定性,我們在用工具創造標題的時候,有些生成的內容品質高,有些卻不通順;第二是可解釋性,同一組演算法生成的影片,卻獲得了不同的流量回饋,人工干預也無法總結優化的路徑;第三是AI系統一定會犯錯,不管什麼模型,只要場景足夠複雜系統就一定會犯錯。這時候需要人機配合,往往可以大幅提高工具使用的可信度。
AI科技評論:在實際操作過程中,AI還無法取代人類?
韋嘯:在某些特定領域,AI可以取代人工,但也不能取代人。工具取代人工一直在發生,例如超市售貨,很多時候顧客選品掃碼支付不需要和售貨員互動,即便如此,無人超市也沒有普及,這就側面說明了售貨員還有他存在的價值。但也不得不承認,超市管理中,現在所用到的人力成本比原來要少很多。
AI內容生產也是如此,某些情況下,AI剪輯影片的品質和操作精度已經超過人類了,但是仍然需要人類進行審核、把關。
AI科技評論:目前人工智慧的發展,呈現出「大」的特點,例如大數據集、大模型,您如何看待?
韋嘯:技術發展的路徑非常複雜,存在很多不同的道路,大模型只是一條探索路徑,但肯定不是唯一的路徑。之前在和學者進行交流的時候,他們表達的一個觀點是:其實人工智慧領域也在期待其他學科,例如腦科學的突破,例如直到今天,我們清楚的知道人腦對於一些觀察和決策的工作機理,例如顏色是如何被探測和判斷的,但是高級的認知例如紅色這個概念,大腦如何存儲和計算,卻沒有很好解釋。而這些解釋上的突破,很有可能為演算法的設計提供全新的思路,在大模型之外,為AI的應用打開新的場景。


雷鋒網雷鋒網雷鋒網