隨着「人工智能」(Artificial Intelligence)的深入發展,「AI 能否擁有意識」也漸漸成為科學家們心中的一個疑問,「意識」也被視為衡量 AI 是否智能的標準之一。
例如,2月中旬,OpenAI 的首席科學家 IIya Sutskever 就曾在推特上發起對 AI 意識的討論。當時,他說:
如今的大型神經網絡可能已初具意識。
他的觀點立即引起了一眾 AI 大咖的討論。針對 IIya Sutskever 的見解,圖靈獎得主、Meta AI 首席科學家 Yann LeCun 首先就拋出了反對意見,給出一個直截了當的觀點:「Nope.」(不。)Judea Pearl 也力挺 Lecun,表示現有的深度神經網絡還無法「深度理解」某些領域。
事實上,關於「意識」的討論最早可以追溯到古希臘「軸心時代」。自那時起,「意識」作為人的認識論的本質就已成為後代哲學家們無法迴避的議題。關於 AI 意識的討論興起後,曾任 OpenAI 研究科學家的學者 Amanda Askell 也就該話題作了一番有趣的見解。
圖註:Amanda Askell,她的研究方向是 AI 與哲學的交叉在她的最新博文《My mostly boring views about AI consciousness》中,Askell 探討了現象學意義上的「現象意識」(phenomenal consciousness),而非「自覺意識」(access consciousness)。現象意識強調主體的體驗過程,側重感覺、經驗,被動注意;而自覺意識則強調主體的主觀能動性,它強調主體在主觀上的主動留意。比如,你在輕鬆的音樂下寫作業,你可以感受到背景中的音樂(現象意識),但不會留意它的具體內容;作業對你而言是主觀留意的(自覺意識),你真切地知道你到底在做什麼。這有點像計算機視覺和認知科學中常用到的兩種不同的注意力機制。現象意識對應「bottom-up」,而自覺意識對應「top-down」。
1 當下的AI系統是否有意識?Askell 提出一個有趣的觀察:當下的 AI 系統比椅子更有可能具有現象意識,但遠不如老鼠有意識,甚至還沒有昆蟲、魚或雙殼類動物有更多意識。她把 AI 系統大致類比為植物的區域——由於植物的行為方式似乎需要規劃,並且可以做出一些看似需要內部和外部交流的事情。AI 系統似乎也有類似的行為。不過她也確信,AI 系統作為一個整體在未來會比植物或雙殼類動物具有更大的意識潛力。尤其未來有更多受生物啟發的神經網絡的AI研究可能會產生更多與意識相關的架構、行為和認知系統。圖註:有研究已經表明,植物也具有意識和智能,它們也可以感知疼痛,並與環境很好地交流互動那麼考慮AI到底有無意識,該從哪些方面考慮證據呢?Askell 列出了四個類型的證據:架構、行為、功能和理論。
現在研究心智的哲學家大致有兩方面的理論傾向:一是包容派,例如認為原子都可以擁有意識的泛心派;二是機械主義派,他們否認非人類實體擁有意識。但無論是哪種傾向,都可以從上述的四種不同證據中討論 AI 的意識問題。
2 AI 是否有意識重要嗎?絕大多數 AI 從業者都不會將意識這一特性考慮進去,AI 和意識似乎還只存在於某些科幻電影對未來的想像中。不過在安全、倫理、偏見與公正性方面,意識與 AI 的結合已在學術界和工業界中引起越來越多的重視。Askell 認為,AI 具有現象意識,這就意味着它很有可能發展出倫理觀,而這與它的創作者之間有莫大關係。尤其是當 AI 犯了錯誤或者受到「虐待」的時候,它的創造者應該承擔一定的責任。Askell 討論了道德倫理學中的兩個重要概念:道德行為體(moral agent)和道德關懷對象(moral patient)。其中,「道德行為體」是具有分辨善惡對錯能力、並可以承擔後果的行為體,如成年人;而「道德關懷對象」則無法分辨善惡是非,即無法從道德上進行約束、一般不會承擔後果的實體,如動物或者幼小的嬰兒。
道德關懷對象
Askell 認為,實體一旦擁有類似快樂和痛苦的知覺(sentisent)就極可能成為道德關懷對象。而如果發現道德關懷對象(比如一隻貓)受到痛苦,而普通人卻沒有試圖去盡道德義務減輕其痛苦,這是不合理的。她同時認為,現象意識是感知的必要條件,因而進一步,現象意識是成為道德關懷對象的先決條件。可能的爭論是某些群體是否具有道德地位(moral status),或者是否擁有更高的道德地位。道德地位來自倫理學,是指一個群體是否可以從道德意義上討論它們的過失。例如,多數生物具有道德地位,而無生命物體則沒有。過分強調某一群體具有這一地位似乎在暗示這一群體更加重要,其他群體沒那麼重要。這就像「給予動物、昆蟲、胎兒、環境等更多道德地位的論點一樣讓人擔憂」。Askell 指出,幫助一個群體並不需要以犧牲其他群體為代價。例如,食用素食對動物和人類健康都有好處。「團隊通常不會競爭相同的資源,我們通常可以使用不同的資源來幫助兩個團隊,而不是強迫在它們之間進行權衡。如果我們想增加用於全球脫貧的資源,將現有的捐款從慈善事業中拿出來並不是唯一的選擇——我們還可以鼓勵更多的人捐款和捐款。」所以,當未來有感知能力的 AI 系統成為道德關懷體時,並不意味着我們對其它人類的福祉不再關心,也不意味着我們需要轉移現有資源來幫助他們。
道德行為體
道德行為體因為懂得善惡是非,他們傾向以好的方式行事,避免以壞的方式行事。當做了道德或法律上不允許的事情的時候,他們會受到相應的懲罰。道德行為體中最弱的部分只需要對積極和消極的激勵做出反應。這就是說,另外的實體可以懲罰該行為體的不良行為或獎勵其良好行為,因為這將改善行為體今後的行為。值得注意的是,Askell 指出:接收刺激並得到反饋似乎並不要求現象意識。當前的 ML 系統在某種意義上已經符合這一規律,比如模型需要降低損失函數,或者強化學習中更明顯的「獎勵」和「懲罰」。
即使創造者盡一切努力確保 ML 系統運行良好,它們還是可能會失敗。有時這些失敗還是由於創造者的錯誤或疏忽而導致的。Askell 認為:創造道德行為體肯定會使事情複雜化,因為道德行為體比自動機(automata)更難預測,比方自動駕駛對於路況的判斷。但這並不能免除創作者為其創造的 AI 系統的安全問題負責的義務。
3 研究 AI 意識的工作有多重要?目前 AI 領域專門針對意識(甚至其它哲學方面的思考)的研究非常少,但也已經有學者在針對該話題進行跨領域的合作研究。比如,GPT-3問世後,專註哲學問題探討的博客 Daily Nous就專門開闢了一個板塊討論語言哲學在 AI 上的思考。但同時,Askell 強調,對 AI 意識的討論不應僅僅停留在哲學式的抽象思辨上,還要致力於發展相關的實用框架,比如為機器意識和感知建立一系列高效的評估。目前已經有一些方法可以用於檢測動物疼痛,似乎可以從那裡獲得一些靈感。反過來說,我們對 AI 意識的理解多一分,對人類本身的理解就多一分。因此,對 AI 意識的討論雖暫未達成統一的共識,但討論本身已是一種進步。期待更多的 AI 意識研究工作。