历代文学网 历代文学
收录来自古今中外 20 多个朝代,近 60个 国家的作者超 3万 人,诗词曲赋、文言文等作品数近 60万 个,名句超 10万 条,著作超 2万 部。

奇点临近 作者:雷·库兹韦尔 美国)

章节目录树

来自本体论的批评:一个计算机可以有意识吗

上一章 下一章

大脑是一台机器,确切说是一个生物机器。因此第一步是弄清楚大脑如何运作,然后制造一个人造机器,也可以用同样有效的机制产生意识;

计算机要想真正实现“完美的模拟”,它就必须理解中文。由于前提是该计算机必须具有理解中文的能力,所以“编程的计算机并不懂中文”的说法是完全与之矛盾的。

如果我们要重建一个理解中文的大脑,在这个过程中使用功能跟齿轮一样少的人,我们还确实需要几亿人才能模拟人脑中的过程(本质上是人们将模拟一台计算机,这个计算机能模拟人类大脑的方法)。这将需要相当大的空间。即使组织效率非常高,这个系统的运行也会比它试图重建的说中文的大脑慢几千倍。

现在,在中文房间的“人”几乎没有任何意义。他只是把东西放到电脑中,然后机械地传递电脑的输出(或者是执行程序的规则)。房间里既不需要计算机也不需要人。对塞尔描述的解释暗含了执行程序的人并没有改变任何事,除了让系统时间变慢很多和让系统非常容易出错外。人和房子都不重要。唯一重要的是计算机(电子计算机或由执行程序的人组成的计算机)。

库兹韦尔的中文房间。我将自己对中文房间的概念称为库兹威尔的中文房间。

塞尔阐明自己的观点:非生物实体只能处理逻辑符号,但他似乎不知道其他的范例。处理符号尽管是法则式专家系统和人机博弈程序的主要工作方式,但目前的趋势是朝着其相反方向自组织混沌系统发展,自组织混沌系统采用生物激励方法,其中包括来源于人脑的数千万神经元的反向工程的进程。

塞尔希望能够找到意识的一些清晰的生物上的“原因”,他自己似乎都无法承认这点,要么理解力要么意识可能来自一个总体的活动模式。其他哲学家如丹尼尔·代尼特已阐明了这样的“模式出现”的理论意识。但无论是“引发的”通过一个特定的生物过程或一个活动模式,塞尔都没有为我们提供如何衡量或侦测意识的基础。在人类中寻找一个与神经相关的意识并不证明意识在相同的关联的其他生物体也会必然出现,也没有证明据表明在没有这种关联的情况下表示就没有意识。这种推理的论点必然被中断,因为缺少直接的测量。通过这种方式我们很清楚地知道,例如由哺乳和光合作用客观衡量的过程所反映的意识就会不同。

在第4章中曾讨论过,人们一直在努力逆向设计人脑,并将这些方法应用于有充足动力的计算平台。所以,像人脑一样,如果我们教计算机中文,它就会理解中文。这似乎是一个显而易见的事实,但这也是塞尔提出的问题之一。用他的话说,我谈论的不是模拟本身,而是组成大脑的大量神经元簇的因果动力的副本,至少这种因果动力与思想显著相关。

目前,塞尔反对计算机有意识的部分立场认为,现在的计算机只是看起来没有意识。它们的行为是靠不住的、公式化的,甚至它们有时还不可预测。但正如我前面指出的,今天在计算机上即使进步了一万倍,也远远比不上人类的大脑,至少有一个原因,它们不具备简单人类思维的品质。但差距正在迅速缩小,并最终在几十年后发生逆转。我在书中讨论到的21世纪早期的计算机即将出现,这些计算机的运作与现在相对简单的计算机有很大不同。

同样重要的是,塞尔的中文房间论证也可以应用于人类大脑本身。虽然这不是他所希望的,但是他的推理却暗含了人脑没有理解力。他写道:“计算机成功地处理正规符号。符号本身是毫无意义的,只有和我们发生联系时,它们才有意义。计算机对此一无所知,它只是随机地给出符号。”塞尔承认生物神经元是机器,那么,如果我们只是将“计算机”替换为“人类大脑”,“正式符号”替换为“神经递质含量和相关机制”,就会得到下列信息:

这个版本的一个问题是,它远远没有解决用中文回答问题这一具体难题。实际上,它更像是一个对机器式过程的描述,这个过程使用了类似表查询的算法,用一些可能比较简单的逻辑处理来回答问题。它也许能回答一些录音问题,不过数量有限。而且如果它能回答任何可能被问到的问题,那么它必须要能理解中文,用中国人说话的方式。另外,如果它想通过中文图灵测试,那么它一定要像人脑一样聪明和复杂。简单的表查询算法太过简单,不足以完成这种任务。

现在,当你说一个蜗牛可能有意识的时候,我想你所说的是以下几点:我们可能发现了为人类的意识提供特定的神经生理依据(称为"X"),如果它不存在,人类就没有意识。因此,我们大概有一个为意识提供了客观衡量的依据。然后,如果我们发现,对于蜗牛来说,我们可以得出结论,这是意识。但是这个推理的结论是,只有一个强大的建议,但不是主观的经验证明蜗牛具有意识。它可能是人类意识的,因为它们有"X"以及其他一些物质基本上所有的人分享,这种称为"Y"。"Y"可能与人类的复杂程度相关,或跟我们是有组织存在某种相关性,或与量子方式有关,我们的微观的性能(虽然这可能是部分的"X")或者完全是其他的什么东西。那个蜗牛有"X",但并没有"Y"型,所以可能没有意识。

所谓的计算机(问题的一部分是“计算机”这个单词,因为机器能做的不止“计算”)并不局限于符号处理。非生物实体也可以使用出现的自组织范式,这是一个正在进行的趋势,而且在未来几十年将会变得更加重要。计算机将不必只使用0和1,也不必全是数字的。即使电脑是全数字式的,数字算法可以在任何精度上(或无精度)对模拟过程进行模拟。机器可以大规模并行,机器可以使用无序的应急技术,就像大脑一样。

那么,仅仅声称“计算机不能从字面上理解中文”是没有意义的,因为它和这个论证的大前提相悖。声称计算机没有意识也不是一个引人关注的论点。为了和塞尔的其他陈述保持一致,我们必须断定我们真的不知道计算机是否有意识。对于相对简单的机器,包括普通的计算机,即使我们不能肯定地说这些实体没有意识,但是起码它们的行为,包括其内部运作,并没有给我们留下它们有意识的印象。这样的计算机能够真正在中文房间里做需要的事情,肯定是假的。能做到这种任务的机器至少应该看起来有意识,哪怕我们不能绝对地说它有意识。所以,“计算机(计算机、人、房间的整个系统)显然没有意识”远非一个引人关注的论点。

看起来,塞尔的追随者相信塞尔的中文房间论证证明了机器(非生物实体)不可能真正理解事物的意义,比如说中文。首先,很重要的一点是确认系统中的人与电脑,就像塞尔所说那样,“能完美地模拟人的认知能力,譬如理解中文的能力”,而且能用中文令人信服地回答问题,还必须通过中文的图灵测试。请注意,我们所说的回答问题,不是回答一个固定问题列表中的问题(因为这是一个不重要的任务),而是回答任何意料之外的问题,或者是来自一个知识渊博的审判官的一系列问题。

塞尔认识到生物神经元就是一些机器,事实上,整个大脑就是一台机器。如第4章所说的,我们已经十分详细地创造了与实际神经元团簇一样的因果动力个体神经元。将我们努力的结果扩大到全人类,理论上是没有障碍的。

这样的副本有意识吗?我认为关于这个问题,中文房间没有给我们任何答案。

——约翰·R·塞尔,《Minds,Brains,and Science》

塞尔最著名的理论就是“中文房间模拟”,在过去的20年间,塞尔对这个模拟发表了各种阐释。在他1992年的著作《The Rediscovery of the Mind》中,我们可以看到比较完整的描述:

当然,神经递质浓度和其他神经细节(例如神经元之间的连接和神经递质模式)本身没有意义。实际出现在人脑的意义和理解力是这样的:一个活动的复杂模式的性质。机器也是同样的道理。虽然“随机符号”本身没有意义,但是紧急模式(emergent pattern)在非生物系统中可能有同样的作用,就像它们在生物系统(如大脑)中一样。汉斯·莫拉维茨曾写道:“塞尔在错误的地方寻找理解力……(他)似乎不能接受真正的意义可能存在于模式中的事实。”37

这里我们描述的情景是:有一个房间,房间里有个人;在外界看来,这个人看起来懂中文,其实显然不是;很显然打字机也不懂中文,因为它只是一个普通的打字机,仅仅是它的机械联动装置被修改过。那么,毕竟事实是房间里的人能用中文回答问题,那么我们能说谁或什么东西懂中文?难道是装饰品吗?

现在,你可能对于我的中文房间有一些反对意见。

“最重要的事情是要认识到意识是一个生物过程,就像消化、哺乳、光合作用、有丝分裂”;

结果可能会像白蚁或蜗牛,而不是简单的生物体的基本意识……事情的本质是认识到:一个意识是一个生物过程,如消化、哺乳、光合作用,还有有丝分裂,你应该寻找特定的生物就像你寻找其他生物过程的特定生物。38

在上述的引述中,塞尔说“程序是完全正规的或符合语法的”。但是正如我之前指出的,这是一个不成立的假设,因为塞尔并没有对这样一种技术的要求做出解释。这个假设隐藏在很多塞尔对人工智能的批评中。一个正规的或符合语法的程序无法理解中文,也不会“完美地模拟人的认知能力”。

我们用于模式识别系统的主要计算技术并没有使用符号处理,而是用了自组织方法,就像在第5章描述的(神经网络、马尔可夫模型、遗传算法、基于大脑逆向工程的更复杂的范式)。一个机器如果能真正做到塞尔在中文房间论点中描述的那样,那么它不会是仅仅处理语言符号的,因为这种做法行不通。这是中文房间背后的哲学花招。计算的性质不仅局限于处理逻辑符号。人类大脑正在进行一些事情,而且没有什么能防止这些生物过程被逆向设计以及在非生物实体中复制。

加州大学伯克利分校杰出的哲学家约翰·塞尔深受他的追随者喜爱,他们坚信人类意识十分神秘,并且坚定抵制像我这样的“强大人工智能还原论者”将人类意识平凡化。尽管我一直觉得塞尔在其著名的“中文房间”论点中的逻辑是同义反复的,但是我盼望有一篇关于意识悖论的高深论文。因此,当我发现塞尔写的以下句子时,我有点意外:

另一个隐藏在中文房间论证中的哲学疑惑与系统的复杂度和规模有关。塞尔说,虽然他无法证明他的打字机或录音机没有意识,但是他认为它们没有意识是显而易见的。为什么显而易见?至少有一个原因是因为打字机或录音机是相对简单的实体。

[人脑]成功处理[神经递质含量和有关机制]。[神经递质含量及有关机制]本身毫无意义,只有和我们发生联系时,它们才有意义。[人脑]对此一无所知,它只是随机给出[神经递质含量及有关机制]。

然而,我们可以按照我的观念展开工作,正如我们可以按照塞尔的概念工作一样。你所必须做的是让打字机的连接如同人的大脑一样复杂。这就是理论上(不是实际上的)的可能。但是“打字机的联动装置”并不拥有如此巨大的复杂性。同样是塞尔的一个操纵人的描述纸条或以下的规则或预定计算机程序。这些都是同样可能会引起误导的观点。

塞尔的描述阐述了不能评价大脑处理和能够复制本身的非生物过程的本质。他从开始就假设在房间里的“人”不懂得任何事情,因为毕竟“他只是一个计算机”,从而阐释自己的偏见。塞尔得出了计算机(由人执行)不理解的结论毫不奇怪。塞尔把这种同义重复和基本的矛盾结合在一起:电脑并不懂中文,但(根据塞尔)能用中文令人信服地回答问题。但是,如果一个实体(生物或非生物的)真不明白人类的语言,它很快就会被聪明的对话者揭露。此外,该程序能令人信服地响应,那么它必须和人脑一样复杂。房间里的人若按照几百万页的程序执行,这要花费了数百万年时间,到那时这些观察员已经死了。

“人通过大脑中一系列特定的神经生物过程产生意识”;

计算机(非生物智能)可以有意识吗?当然,首先我们必须弄懂这个问题的含义是什么。正如我前面所讨论的关于简明的问题是什么这一点,大家普遍存在着不同的观点。不管我们想如何定义这个概念,我们都必须承认,人们广泛地认为意识是人类至关重要(如果不是必须的)的属性。34

是的,意识从大脑和身体的生物过程中产生,这是个事实,但至少有一个区别。如果我提出这个问题,“特定实体排放二氧化碳吗”,通过客观的测量,我可以明确地回答。如果我提出这个问题,“这是实体意识吗”,我可能能够提供推理论据,并且可能是强有说服力的,但是不清楚客观的测量会是什么结果。

我相信,最有名的反对强人工智能的观点就是我的中文房间论点了……它表明,系统可以实例化一个程序,以便让系统完美地模拟人的一些认知能力,如理解中文的能力,哪怕该系统完全不了解中文。设想一下,将一个完全不懂中文的人锁在一个房间里,这个房间有很多中文符号,以及一个用中文回答问题的计算机程序。这个系统的输入是用中文问一些问题,系统的输出是用中文来回答这些问题。我们可以假设该程序非常好,好到难以区分答案是由系统回答的还是由普通的中国人回答的。但是,无论是屋内的人还是这个系统的任何其他部分都不能从字面上理解中文;由于编程计算机有的东西系统都有,因此这个编程的计算机也并不懂中文。因为程序是完全正规的语法,而思想有精神内容和语义内容,所以任何试图用计算机程序产生思想的行为都偏离了思维的本质36。

您可能还会指出这个前提是荒谬的。仅仅改变打字机的机械联动装置不可能使它能够用中文令人信服地回答问题(更别提我们不能把数千个汉字符号放在一台打字机的键盘上)。

塞尔写道:“人类大脑造成的实际作用是通过一系列具体的神经生物学的意识在大脑的进程中运行。”但他尚未提供任何这样一个令人信服的观点作为基础。为了说明塞尔的观点,我引述了他给我的信件:

在我想象的实验里,房间里有一个人。房间被装饰成明朝风格,在一个基座上面放了一台机械打字机。打字机被改造过,因此它的键盘是中文符号,而不是英文字母。并且这个机械联动装置也被巧妙地修改了,当一个人用中文输入一个问题时,打字机打出的不是该问题,而是该问题的答案。现在,房间里的人收到中文字符的问题,然后如实在打印机上按下适当的键。打字机打出的不是问题,而是合适的答案。然后人将答案传到房间外面。

是的,这也是一个有根据的反对。关于中文房间的概念,我和塞尔唯一的不同是,在我的概念中它显然不会工作,而且性质是非常荒谬的。可能对许多读者来说,塞尔的中文房间理论不那么明显。不过,事实上都是一样的。

因此,如果我们将塞尔的中文房间扩大成一个它需要成为的相当大的空间,那么谁能说整个系统没有意识?这个系统包含了几十亿模拟懂中文的大脑的人。这个系统懂中文的说法当然是正确的。我们不能说它比别的大脑过程的意识少。我们不知道别的实体的主观感受(至少在塞尔的一些其他著作里,他看起来承认这个限制),而这个庞大的、具有数十亿人的“房间”就是这样一个实体,也许它是有意识的。塞尔只是宣称和鼓吹它没有意识,还说这个结论是显而易见的。如果你认为它只是一个房间,只能和处理少数符号的少数人谈论,那也许是这样的。但是我会说这种系统远远不能工作。

现在我们所知道的计算机和计算机程序并不能成功地执行上面描述的任务。因此,如果我们把上面提到的计算机理解成现在普通的电脑,那就不能满足上述的前提。计算机能完成这个任务的唯一办法就是它具有和人一样的复杂度和深度。图灵认为图灵测试敏锐的洞察力在于能否令人信服地回答来自一个聪明的人类提问者的所有可能问题,并且是用人类的语言回答,而且考查点要涉及人类智能的方方面面。能够实现这个任务的计算机未来几十年将出现,它需要具有像人类一样的复杂性甚至更复杂,还要深刻理解中文,否则就算它宣称能完成这样的任务,也没人信服。

从塞尔和其他唯物主义哲学家对人工智能前景的批判中,我们看不到计算过程可以是无序、不可预测、杂乱、短暂、自然发生的,就像人脑一样。塞尔不可避免地回到了对“符号计算”(symbolic)的批判:对有序连续的符号处理无法重新创建真实想法。我认为这是正确的(当然这取决于我们对智能过程建模的水平),但符号的处理(塞尔暗示的意义)并不是建立机器或电脑的唯一方法。

那么,究竟谁是还原论者?塞尔显然希望我们能够衡量另一实体的主观性就像我们测量光合作用的氧气输出一样容易。

是的,这是事实。底座也没有意义。人和房间也可以被认为同样没有意义。

我回答说:

不过,我们并不一定要使用那种方式来制造机器,我们可以采用与人脑性质相同的形式来制造它们:使用大规模并行的无序应急方法。此外,机器的概念并不一定将其专长限制在只能理解语法层次的东西,而不能掌握语义层次的东西。事实上,如果塞尔中文房间概念中的机器没有掌握语义,就不能令人信服地用中文回答问题,这与塞尔自己的前提相矛盾。

事实是,现在这几十亿人不需要知道中文,也不需要知道在这个精心设计的系统中正在进行什么。对于人脑的神经元连接来说,也是这样的。这百万个神经元连接对我现在写的这本书一无所知,它们也不懂英语,也不理解我知道的其他事情。它们不关心本章的内容,也不关心我所关心的事情。也许它们完全没有意识。但是它们的整体系统,也就是我本人,是有意识的。至少我能说我是有意识的(到目前为止,这个说法没有遇到挑战)。

但是,一个像人脑一样复杂的系统是否存在意识并不是显而易见的。事实上,这个系统可能是对真正人脑的组织和因果动力的直接复制。如果这样的一个系统表现得像人一样,并且能用人类的方式来理解中文,那么它是否有意识?答案已经不再那么显而易见。塞尔在中文房间论证中说道,我们讨论的是一个简单机器,然后认为这样一个简单的机器有意识,他觉得我们非常荒唐。这个谬论和系统的规模还有复杂度非常相关。仅仅只有复杂度并一定赋予我们意识,但是中文房间完全没有告诉我们系统是否有意识。

最重要的是,这个人的地位就像CPU,只是一个系统的一小部分。虽然这个人可能看不见理解能力,但是理解能力将会分散到程序本身的整个模式,而这个人必须做很多笔记来跟进程序。我理解英语,但我的神经元不理解。我的理解能力表现在神经递质、突触裂隙和神经元之间连接的巨大模式中。塞尔没能对信息的分布模式和它们表现出的性质的意义做出解释。

因为我们不是很了解大脑,所以总是想用最新的技术作为一个模式去试图了解它。在我的童年里,我们总是确信大脑是一个电话交换机(“还能是什么呢”)。我很开心地看到,伟大的英国神经学家谢林顿认为大脑就像一个电报系统一样工作。弗洛伊德经常将大脑比做电磁液压系统。莱布尼兹把它比做一个工厂。据我所知,古希腊人有些人认为大脑功能像一个弹射器。很明显,目前大家认为它像数字计算机。

你可能会指出,装饰品似乎没有任何意义。

关于蜗牛,我说:

塞尔曾写道:单纯从神经生物学的角度是不可能推断出椅子或计算机有意识。“我同意椅子看起来没有意识,但是对于计算机未来可能会具有和人类相同的复杂性、深度和微妙的变化并具备人类的能力,我不认为我们可以排除这一可能性。塞尔只是假定它们没有意识,然而却是用一句”不可能“来支持这个论点。塞尔的”论据与这种同义反复相比,实在是没有更多实质性的内容了。

“我们知道,大脑通过特定的生物机制产生意识”。35

塞尔说我“经常引用IBM的深蓝电脑作为高级智能的例子”。当然,情况是相反的:我引用深蓝不是为了抨击象棋问题,而是检验它阐明的人和机器解决游戏问题的对比。正如我之前指出的,因为国际象棋程序的模式识别能力正不断增长,所以国际象棋机器开始将传统机器的分析能力和更加类似人类的模式识别能力结合起来。人类范式(自我组织的无序过程)提供了深厚的优势,我们可以识别和应对非常微妙的模式,而且我们可以制造出具有相同能力的机器。这确实也是我自己感兴趣的技术领域。

现在正在发生许多这样的争论,虽然没有这么多的蜗牛以及更高级的动物。对于我来说,很显然狗和猫的意识是有意识的(而且塞尔曾经说过他也承认这点)。但是,并非所有的人接受这点。我可以猜想加强论据的科学方法,通过指出与这些动物和人类有许多相似之处,但同样这些只是争论,却没有科学证据。

让我们来看看中文房间的第二个版本。在这一概念中,房间里没有计算机模拟人的计算机,但是房间里有很多人,这些人都在处理写着中文符号的纸——本质上,就像很多人在模拟计算机。这个系统将用中文令人信服地回答问题,但所有的参与者都不懂中文,我们也不能说整个系统真正理解中文,至少不是有意识的。所以塞尔嘲笑认为这个“系统”有意识的想法。他问道:我们所说的意识是什么呢?是纸条还是房间?

正如在第4章讨论的,对人类和其他一些灵长类动物来说,我们已经发现了一个独特的生物学功能:梭形细胞。它们的细胞具有深厚的分支结构,这些细胞看起来大量参与意识反应,特别是情感的反应。难道梭形细胞结构是为人类意识打下神经生理基础的"X"?什么类型的实验可以证明?猫与狗没有梭形细胞,这是否能够证明它们没有意识的经验?

将如何解决这样的说法?你显然不能问蜗牛。即使我们可以想出办法提出了这个问题,它的回答是,这仍然不能证明它具有意识。你情不自禁地说其相当简单的或多或少的预测行为。指出它有"X"可能是个好论据,很多人可能会被它说服。但是这只是一个争论,而不是直接测量蜗牛的主观经验。而且客观测量是不符合主观体验的概念。

上一章 下一章