随着“人工智能”(Artificial Intelligence)的深入发展,“AI 能否拥有意识”也渐渐成为科学家们心中的一个疑问,“意识”也被视为衡量 AI 是否智能的标准之一。
例如,2月中旬,OpenAI 的首席科学家 IIya Sutskever 就曾在推特上发起对 AI 意识的讨论。当时,他说:
如今的大型神经网络可能已初具意识。
他的观点立即引起了一众 AI 大咖的讨论。针对 IIya Sutskever 的见解,图灵奖得主、Meta AI 首席科学家 Yann LeCun 首先就抛出了反对意见,给出一个直截了当的观点:“Nope.”(不。)Judea Pearl 也力挺 Lecun,表示现有的深度神经网络还无法“深度理解”某些领域。
事实上,关于“意识”的讨论最早可以追溯到古希腊“轴心时代”。自那时起,“意识”作为人的认识论的本质就已成为后代哲学家们无法回避的议题。关于 AI 意识的讨论兴起后,曾任 OpenAI 研究科学家的学者 Amanda Askell 也就该话题作了一番有趣的见解。
图注:Amanda Askell,她的研究方向是 AI 与哲学的交叉在她的最新博文《My mostly boring views about AI consciousness》中,Askell 探讨了现象学意义上的“现象意识”(phenomenal consciousness),而非“自觉意识”(access consciousness)。现象意识强调主体的体验过程,侧重感觉、经验,被动注意;而自觉意识则强调主体的主观能动性,它强调主体在主观上的主动留意。比如,你在轻松的音乐下写作业,你可以感受到背景中的音乐(现象意识),但不会留意它的具体内容;作业对你而言是主观留意的(自觉意识),你真切地知道你到底在做什么。这有点像计算机视觉和认知科学中常用到的两种不同的注意力机制。现象意识对应“bottom-up”,而自觉意识对应“top-down”。
1 当下的AI系统是否有意识?Askell 提出一个有趣的观察:当下的 AI 系统比椅子更有可能具有现象意识,但远不如老鼠有意识,甚至还没有昆虫、鱼或双壳类动物有更多意识。她把 AI 系统大致类比为植物的区域——由于植物的行为方式似乎需要规划,并且可以做出一些看似需要内部和外部交流的事情。AI 系统似乎也有类似的行为。不过她也确信,AI 系统作为一个整体在未来会比植物或双壳类动物具有更大的意识潜力。尤其未来有更多受生物启发的神经网络的AI研究可能会产生更多与意识相关的架构、行为和认知系统。图注:有研究已经表明,植物也具有意识和智能,它们也可以感知疼痛,并与环境很好地交流互动那么考虑AI到底有无意识,该从哪些方面考虑证据呢?Askell 列出了四个类型的证据:架构、行为、功能和理论。
现在研究心智的哲学家大致有两方面的理论倾向:一是包容派,例如认为原子都可以拥有意识的泛心派;二是机械主义派,他们否认非人类实体拥有意识。但无论是哪种倾向,都可以从上述的四种不同证据中讨论 AI 的意识问题。
2 AI 是否有意识重要吗?绝大多数 AI 从业者都不会将意识这一特性考虑进去,AI 和意识似乎还只存在于某些科幻电影对未来的想象中。不过在安全、伦理、偏见与公正性方面,意识与 AI 的结合已在学术界和工业界中引起越来越多的重视。Askell 认为,AI 具有现象意识,这就意味着它很有可能发展出伦理观,而这与它的创作者之间有莫大关系。尤其是当 AI 犯了错误或者受到“虐待”的时候,它的创造者应该承担一定的责任。Askell 讨论了道德伦理学中的两个重要概念:道德行为体(moral agent)和道德关怀对象(moral patient)。其中,“道德行为体”是具有分辨善恶对错能力、并可以承担后果的行为体,如成年人;而“道德关怀对象”则无法分辨善恶是非,即无法从道德上进行约束、一般不会承担后果的实体,如动物或者幼小的婴儿。
道德关怀对象
Askell 认为,实体一旦拥有类似快乐和痛苦的知觉(sentisent)就极可能成为道德关怀对象。而如果发现道德关怀对象(比如一只猫)受到痛苦,而普通人却没有试图去尽道德义务减轻其痛苦,这是不合理的。她同时认为,现象意识是感知的必要条件,因而进一步,现象意识是成为道德关怀对象的先决条件。可能的争论是某些群体是否具有道德地位(moral status),或者是否拥有更高的道德地位。道德地位来自伦理学,是指一个群体是否可以从道德意义上讨论它们的过失。例如,多数生物具有道德地位,而无生命物体则没有。过分强调某一群体具有这一地位似乎在暗示这一群体更加重要,其他群体没那么重要。这就像“给予动物、昆虫、胎儿、环境等更多道德地位的论点一样让人担忧”。Askell 指出,帮助一个群体并不需要以牺牲其他群体为代价。例如,食用素食对动物和人类健康都有好处。“团队通常不会竞争相同的资源,我们通常可以使用不同的资源来帮助两个团队,而不是强迫在它们之间进行权衡。如果我们想增加用于全球脱贫的资源,将现有的捐款从慈善事业中拿出来并不是唯一的选择——我们还可以鼓励更多的人捐款和捐款。”所以,当未来有感知能力的 AI 系统成为道德关怀体时,并不意味着我们对其它人类的福祉不再关心,也不意味着我们需要转移现有资源来帮助他们。
道德行为体
道德行为体因为懂得善恶是非,他们倾向以好的方式行事,避免以坏的方式行事。当做了道德或法律上不允许的事情的时候,他们会受到相应的惩罚。道德行为体中最弱的部分只需要对积极和消极的激励做出反应。这就是说,另外的实体可以惩罚该行为体的不良行为或奖励其良好行为,因为这将改善行为体今后的行为。值得注意的是,Askell 指出:接收刺激并得到反馈似乎并不要求现象意识。当前的 ML 系统在某种意义上已经符合这一规律,比如模型需要降低损失函数,或者强化学习中更明显的“奖励”和“惩罚”。
即使创造者尽一切努力确保 ML 系统运行良好,它们还是可能会失败。有时这些失败还是由于创造者的错误或疏忽而导致的。Askell 认为:创造道德行为体肯定会使事情复杂化,因为道德行为体比自动机(automata)更难预测,比方自动驾驶对于路况的判断。但这并不能免除创作者为其创造的 AI 系统的安全问题负责的义务。
3 研究 AI 意识的工作有多重要?目前 AI 领域专门针对意识(甚至其它哲学方面的思考)的研究非常少,但也已经有学者在针对该话题进行跨领域的合作研究。比如,GPT-3问世后,专注哲学问题探讨的博客 Daily Nous就专门开辟了一个板块讨论语言哲学在 AI 上的思考。但同时,Askell 强调,对 AI 意识的讨论不应仅仅停留在哲学式的抽象思辨上,还要致力于发展相关的实用框架,比如为机器意识和感知建立一系列高效的评估。目前已经有一些方法可以用于检测动物疼痛,似乎可以从那里获得一些灵感。反过来说,我们对 AI 意识的理解多一分,对人类本身的理解就多一分。因此,对 AI 意识的讨论虽暂未达成统一的共识,但讨论本身已是一种进步。期待更多的 AI 意识研究工作。