计算领域也有类似的事情。阿兰·图灵(Alan Turing)有过一个著名的证明:所有足够先进的计算机都能相互模仿,因此一个视频游戏角色在它的虚拟世界中无从知晓它的计算介质(“计算态”)是一台MAC还是一台PC,也无从知晓计算硬件由什么原子构成。重要的只是抽象信息处理过程。如果被创造的这个角色复杂到拥有了意识,就像电影《黑客帝国》中那样,这种信息处理过程需要具备什么性质才行呢?
我很久以来一直主张,意识是在被以某种复杂方式处理时信息的感觉方式。神经学家朱利奥·托诺尼(Giulio Tononi)把这个想法推向了具体和实用,得出了一个令人信服的论点:信息处理系统若要有意识,它的信息必须被整合为一个统一的整体。换句话说,系统必须不可能被分解为几乎独立的部分才行,否则那些部分感觉起来就会像是彼此分离的意识实体。托诺尼及其同事将这一思想融入了一个复杂的数学理论,称之为整合信息理论(integrated information theory,缩写为IIT)。 IIT在神经科学领域引起了重大兴趣,因为它为很多有趣的问题提供了答案。比如,为什么我们脑中的一些信息处理系统似乎是没有意识的?依据将脑部测量与主观体验报告结合起来的大量研究,神经学家克里斯托弗·科克(Christof Koch)等人得出结论认为,小脑没有意识,而是一个无意识的信息处理器,帮助脑的其他部分完成特定的计算任务。 IIT对此的解释是,小脑主要是一个“前馈”神经网络集合,信息在其中如河水一般流淌,每个神经元基本上只影响下游。没有反馈,便没有整合,也就没有意识。这个道理也同样适用于谷歌公司的前馈人工神经网络,它最近处理了数百万帧YouTube视频以确定里面是否有猫。与此形成对照的是,脑中与意识有关的系统都是高度整合的,所有部分都能够互相影响。 因此,对于超级智能计算机是否会有意识这个问题,IIT给出了答案:看情况。它的信息处理系统中高度整合的部分将真正拥有意识。然而IIT研究表明,对很多整合系统来说,人们可以设计出功能等效但不会具备意识的前馈系统。这意味着原则上有可能存在所谓的“哲学僵尸”——也就是那些行为与人类无异,也能通过针对机器智能的图灵测试,却没有任何意识体验的系统。目前很多“深度学习”的人工智能系统,都属于这种哲学僵尸。幸运的是,像人脑这样的整合系统需要的计算资源一般远少于等效的前馈“僵尸”系统,这大概可以解释为什么整合系统受到了演化的青睐,从而令我们获得了意识。 另一个被IIT给出答案的问题是:为什么我们在癫痫发作、使用镇静剂以及深度睡眠时没有意识,快速眼动睡眠阶段却有意识?在使用镇静剂或者深度睡眠阶段,尽管我们的神经元保持着完好的状态,但它们的互动被削弱了,以至于整合度减小,继而令我们失去了意识。癫痫发作时,互动又变得太强,以至于大量的神经元开始互相模仿,失去了贡献出独立信息的能力,而根据IIT,这恰恰是意识的另一个关键条件。这就像是一台计算机的硬盘上,所有编码信息的比特位被迫全部为1或者全部为0,造成这块硬盘仅仅储存了1比特的信息。托诺尼和阿登纳·卡萨里(Adenauer Casali)、马塞洛·马西米尼(Marcello Massimini)等人合作,最近用实验方法验证了这些想法。他们发明了一种“意识指数”,利用脑电图监测人脑在接受磁力刺激后的电活动,通过这种方式来测量这一指数,并利用它成功预测被测者是否有意识。 为什么我们感知到的体验会是现在这个样子,而不是反过来? 探测设备 清醒和做梦的人具有相对较高的意识指数,而被麻醉或者处于深度睡眠阶段的人指数要低得多。意识指数甚至成功地将两名闭锁综合征患者判定为有意识,他们清醒且有感知,但因麻痹而无法说话或者活动。这表明,这项技术很有潜力帮助医生判断无反应的病患是否还有意识。