如果《賽博朋克2077》走進現實 人類如何擺脫AI的支配?
「有人在改變我們,但不知道是誰,什麼方式,為什麼。」
「他們修改思維,修改個人想法……目的就是操縱你們的人生。」
「認知模式緩衝器、遠程神經網路再造……最妙的是,一切都是合理的,潛意識電視訊號、你的電動牙刷里的高密度發射器。」
這就是來自最近大火的遊戲——《賽博朋克2077》的對白。
遊戲劇情設定的時間是在不久的未來,而人類要擊敗的,正是有了自我意識的AI。
因為事態再發展下去,人類的行為將被AI所控制,服從它們的邏輯、演算法。
……
雖然這樣大膽的想法似乎只存在於科幻情節,但隨著AI技術的不斷發展,與之相關的一個話題卻逐步走入公眾視線:
AI倫理道德。
走出象牙塔的AI
首先我們需要了解的是,什麼是AI倫理道德?
根據維基百科給出的解釋:AI倫理道德是技術倫理學的一個分支,有時被認為是人類在設計、製造、使用和對待人工智慧系統時,對道德行為和機器行為的關注。
它還包括超級智慧人工智慧可能導致的奇點問題。
追溯到更早,1942年,在著名科幻作家阿西莫夫的作品《環舞》中,就曾提出過著名的「機器人三定律」。
第零法則:機器人不得傷害整體人類,或坐視整體人類受到傷害;
第一法則:除非違背第零法則,否則機器人不得傷害人類,或坐視人類受到傷害;
第二法則:機器人必須服從人類命令,除非命令與第零或第一法則發生衝突;
第三法則:在不違背第零、第一或第二法則之下,機器人可以保護自己。
隨著人們對AI研究的不斷深入,與之相關的一系列技術,現已經「走出象牙塔」,逐步滲入到日常生活中的各行各業。
與此同時,除了AI技術給人們帶來的諸多便利之外,相伴相隨地,許多「倫理道德」相關的問題也浮現在公眾面前。
例如以爆火的GAN技術衍生的Deepfakes,便可以憑空捏造各種各樣、甚至不存在的人臉。
以及將影像、影片中的人臉,毫無違和感地換成其他人(尤其是名人)也是它的長項,曾一度引起安全、隱私相關的輿論。
語音AI技術方面也存在類似的問題,例如已經非常普及的語音助手Siri,就曾被曝出一件離譜的事情。
當用戶諮詢「自殺」相關問題,Siri竟然推薦了距離最近的一座橋……
但這些,卻僅僅是「AI倫理道德」問題浮現出來的冰山一角。而且很明顯的,這個問題已然超出了在「象牙塔」內就能解決的範疇,更需要的是社會組織、企業的共同努力。
在國外,亞馬遜、Google、Facebook、IBM和微軟的科技巨頭,已經建立了一個非營利性的合作夥伴關係,來制定與AI倫理道德相關的最佳實踐。
社會組織方面,IEEE便提出了一個關於自主和智慧系統倫理的全球倡議,在公眾意見的幫助下,一直在制定和修訂指南。
不難看出,「AI倫理道德」問題已經引起了學術界、產業界、社會組織等各方的重視。
但似乎各方之間更多的是獨立制定,而不是緊密的耦合。
「AI倫理道德」的破局之道
作為一個時代的產物,雖然AI的一些「副作用」已經有所顯現,但拒絕這個技術,顯然不是一個明智的選擇。
那麼「AI倫理道德」這步棋又該如何破解?
近日,由商湯科技與上海交通大學聯合主辦的「上海交通大學計演算法學與AI倫理研究中心揭牌儀式」,在上交大成功舉行。
在此次活動中,便為這局棋提供了一個破解之道:
產學研一體化:首創性地在人工智慧倫理研究領域,開拓了校企合作模式。
AI技術、應用需要產學研結合,倒是經常被提及。但」AI道德倫理」,也需要產學研結合?
新鮮,也很獨特。
那該如何理解此舉?不妨從兩點來看。
第一點,「AI倫理道德」本身是否具備需要聚多方之力來探討的價值。
對此,商湯科技智慧產業研究院院長、上海交通大學計演算法學與AI倫理研究中心聯袂主任田豐認為,「AI的責任與權利」,是一個不可避免的社會議題。而成立上海交通大學計演算法學與AI倫理研究中心,是順應時代的變性,主要因素有三:
命題足夠複雜:AI已經涉及眾多領域,但同時飽受爭議,加上跨學科、百年大變局等環境,對複雜度有很強的研究價值或者研究需求。
命題足夠長期:如果AI是百年大變局的主線,那麼計演算法學和AI倫理一定是長期的研究命題。
聯合研究很重要:擁有來自學界、法律界、產業界及政府的專家,可以從多維度的視角去考慮問題。
△ 商湯科技智慧產業研究院院長、上海交通大學計演算法學與AI倫理研究中心聯袂主任,田豐
第二點,「AI倫理道德」問題是否已經發展到了如此大力「整治」的節點。
此次儀式中便得出了這樣一個結論:
今年(2021年)會成為AI倫理、隱私等這方面,非常有爭議的元年。
具體而言,除了最近經常活躍在大眾視線的技術安全隱患之外,像手機等智慧軟體和設備,已然涉及眾多AI技術。而所涵蓋到的人數,在全球範圍來看至少高達10億至20億。
從全球發布的相關論文數量角度來看,與人工智慧安全風險和安全防禦的相關研究激增,這就從一定角度說明,科技能力也好,科技哲學也罷,是一個巨大的研究需求和機會。
更進一步的,這種「校企合作」該怎麼做?
走出象牙塔,這是較為核心的一點。
換言之,就是在理論構建之外,從實際應用場景中觀察科技所造成的社會影響,自下而上地歸納出洞察並回饋。
據了解,此次合作成立的計演算法學與AI倫理研究中心,將會融合理論研究與實踐經驗,在新興電腦系統研發、智慧生態圈的構建、圍繞數字經濟的規則博弈以及人工智慧立法等方面成為中國頂級、國際知名的學術重鎮和高端智庫。
而研究中心成立之後,未來在「AI倫理道德」方面希望逐個攻破的「靶點」,也有了較為清晰的介紹:
將重點圍繞人工智慧倫理、城市和社會的數字化治理、計演算法學、認知科學與法律行為、智慧司法等相關領域開展合作研究,包括但不限於大數據和人工智慧相關的原則、法規、政策、技術規格的研究以及認知科學與法律行為實驗。
並就相關問題構建知識圖譜、提交研究報告、承接政府課題、發表論文、出版專著等等。
為什麼要發力「AI倫理道德」?
雖然「上海交通大學計演算法學與AI倫理研究中心」的成立,對於AI倫理道德是一種新穎的探索方式,也是一個良好的起步。
但在「落地為王」大環境、大趨勢的當下,中國人工智慧頭部企業緣何要發力與此?
畢竟「AI道德倫理」不是說能解決就能解決的問題,此前的研究大多也都停留在對「可能性」和「未來影響」的理論工作。
然而「難」並不等同於「不可能」。
例如2012年,AI可以區分人類的假笑和真笑;2015年,AI測謊儀擊敗了最好的人類審訊員;2017年,AI通過人臉識別可以預測一個人是否患有抑鬱症,甚至有自殺傾向。
即便現在仍舊存在著諸多「AI倫理道德」方面的安全隱患,但不可否認的是,它的進步和改善也是有目共睹。
由此進一步考慮這個問題,商湯在「AI倫理道德」上所做的工作,也就不難理解。
首先從產品層面來看,公眾越發地重視對「AI倫理道德」的考量,而這一點,也恰恰是拓展產品渠道的路徑之一:模型、數據的不完整會產生「偏見」,系統的隱患會帶來其保密性和可用性的風險。
因此,聚焦到內部,商湯於2019年專門設立人工智慧倫理治理委員會,致力於設計和規範公司產品倫理審核流程。倫理委員會由商湯各部門代表組成,逐步引入外部專家顧問,審核所有商湯的產品,包括從立項到上線,以及上線之後,評估所有在倫理方面的風險。
除此之外,還設有數據安全及個人資訊保護委員會,更關注數據全生命周期、演算法全生命周期方面的風險。
企業履行社會責任,不是單純向外部展示所做出的一些成果。想為社會做出實質貢獻,只有將「向善」的理念深植於企業的發展觀中,才能自上而下地造成影響,自發地反映在實際舉措當中。
其次,此次能夠將「產學研一體」的概念首創性地滲入「AI倫理道德」,也離不開商湯自身的基因和優勢,即學院派背景。
也正是基於此,商湯可以積極向外拓展合作的空間,基於可持續發展觀的願景,與其他人工智慧企業、高校等非政府機構達成共識,共同構建「AI倫理道德」的生態建設。
但實際上,從實際行動角度來看,這並不是商湯在此領域的第一步,而是已經有所布局數年之久。
除人工智慧倫理治理委員會外,早在2019年11月,在人臉識別國家標準工作組成立之際,商湯便擔任了組長單位,並在半年時間內,成功實現三項國家標準的正式立項,包括《人臉識別系統技術要求》、《人臉識別系統測試方法》、《人臉影像數據交換格式》。
(目前,《人臉識別系統技術要求》被放在首要重要位置進行優先制定,已經通過專家內審會並積極推進中。)
去年6月,在首屆「AI可持續發展2030論壇」上,商湯智慧產業研究院與上交大清源研究院聯合發布《AI可持續發展白皮書》,提出了以「尊重協商,探索包容文化」為核心的AI可持續發展觀、以人為本、共享惠民、融合發展和科研創新四項AI發展價值觀。
同年8月份,商湯入選了首屆AI國家標準化組織,參與人工智慧風險管理與治理標準的制定。
而且,商湯「AI倫理道德」層面上的工作,不僅限於中國,在國際上,商湯便在去年年底成功立項IEEE標準《人臉識別系統技術要求》,並擔任了「人臉識別」工作組主席。
現在,商湯還準備將所提出來的標準,升級為ISO國際標準,以此讓人臉識別等技術能夠更好的規範化,更有助於技術安全落地。
但歸根結底,人工智慧和每一個時代下的科技類似,都是一把雙刃劍,具體將向何處發展、怎麼發展,還是在於使用技術的人。
新技術發展帶來的挑戰,最好還是由技術解決。
你說呢?
<