历代文学网 历代文学
收录来自古今中外 20 多个朝代,近 60个 国家的作者超 3万 人,诗词曲赋、文言文等作品数近 60万 个,名句超 10万 条,著作超 2万 部。

创新者:一群技术狂人和鬼才程序员如何改变世界 作者:沃尔特·艾萨克森 美国)

章节目录树

机器可以思考吗?

上一章 下一章

图灵在1943年4月返回布莱切利园,这时他与一位叫作唐纳德·米基(Donald Michie)的同事成为好友,他们经常会在晚上到附近的一家酒吧下象棋。他们讨论了制作一台会下象棋的计算机的可能性。图灵没有打算利用强大的处理能力来计算出每一步棋可能的走法,他关注的焦点是能否让机器通过不断重复的练习“学会”如何下象棋。换句话说,机器也许可以尝试不同的开局走法,然后从每次的胜利或失败中完善自己的策略。如果这种方法是可行的话,这将会是一个足以令埃达·洛夫莱斯感到震惊的重大飞跃:机器不仅可以按照人类给出的指令进行工作,还可以从经验中学习,同时不断完善自己的指令。

[2] 之前在哈佛大学科学中心举行的马克一号展览和相关的展品解释都没有提及格雷斯·霍珀,也没有展出任何女性程序员的照片。后来这个展览在2014年经过重新设计,开始强调霍珀和其他程序员的历史地位。

如果存在一些跟我们的身体类似的机器,它们能够在各个方面尽可能接近地模仿我们的动作,我们还是可以利用两条非常可靠的标准来判明它们并不是真正的人类。第一条是……这种机器绝不能对自己接收到的任何内容都做出条理清晰的回应,而这是最愚蠢的人都能办到的。第二条是,虽然某些机器在完成某些工作的时候可以做得跟我们一样好,甚至可以做得更好,但是它们肯定做不好其他的事情,这点表明它们的行为并非建立在理解的基础上。

图灵在这个示例对话中做了一些手脚。如果仔细查看上面的答案的话,我们可以发现回答者在计算加法的时候出现了一个小错误(正确答案是105 721)。这点就足以证明该回答者是真人了吗?也许可以。但这也有可能是一台狡猾的机器正在冒充人类。图灵也轻易地反驳了杰弗里关于机器不能写作十四行诗的异议,因为给出上述答案的有可能是一个承认自己不会写诗的人类。图灵认为利用能否写作十四行诗作为判断是否为人类的标准是很难操作的。为了证明这点,他继续在论文中设计了如下的询问对话:

[4] 1967年,年逾60岁的格雷斯·霍珀被美国海军召回服役,负责标准化COBOL语言的应用和验证COBOL编译器的任务。美国国会的投票通过了延长她的服役年限的决议。在获得了海军准将的军衔之后,她最终在1986年8月以79岁的高龄退役,成为海军服役期最长的军官。

[1] 斯特林公式(Stirling’s formula),用于求出某个数字的阶乘结果的近似值。

有人对希尔勒的异议提出了反驳:虽然房间中的人本身不是真正理解中文,但是这个房间包含的完整系统——人(处理器)、指导手册(程序)以及写满中文的文件(数据),这三者作为一个整体是确实能够理解中文的。这两种观点的争议到目前还没有定论。时至今日,图灵测试及其相关的异议仍然是认知科学领域中最具争议性的一个话题。

在图灵看来,仅凭这样的回答几乎不可能判断出回答者是人类还是冒充人类的机器。

[5] 根据美国宪法,美国国会有权“为了促进科学和技术的发展而保护作者和发明者在一定时间内对各自著作和发现的专有权”。在20世纪70年代,对于那些与现有技术的唯一区别只是采用了新的软件算法的创新,美国专利商标局通常都不会向它们授予专利。到了20世纪80年代,专利授权资格的界定方式开始变得模糊,因为上诉法院和最高法院之间出现了一些不一致的判决。相关的专利政策在20世纪90年代中期得到改革,哥伦比亚特区巡回上诉法院在当时颁布了一系列的规定,正式允许向可以生产“有益、具体和实际的成果”的软件授予专利,而且比尔·克林顿总统还将软件出版行业的一位首席游说者任命为美国专利局的局长。

[3] 冯·诺依曼的研究取得了成功。这种采用钚元素的内爆式原子弹设计促成了世界上首次原子弹引爆试验——三一核试验(Trinity test,1945年7月),这场试验在新墨西哥州阿拉莫戈多附近进行。这种设计也被用于在1945年8月9日投向长崎的原子弹,在三天之前投向广岛的是一颗铀核弹。冯·诺依曼成为核武器的坚定支持者,他参与了三一核试验和后来在太平洋比基尼环礁进行的多次核试验,他还提出为了让美国取得核优势,即使有上千人因为核辐射而死亡也是一个可以接受的代价。12年后,他由于身患骨癌和胰腺癌而病逝,终年53岁,他的癌症可能是由核试验产生的辐射引致的。

贝尔实验室的首个晶体管

图灵长期以来都醉心于思考计算机可以如何模仿人类大脑的活动,在参与了加密文字破解机器的研发工作之后,他对这方面的兴趣变得更加浓厚。1943年年初,正当巨人计算机在布莱切利园进行设计的时候,图灵远渡重洋来到位于下曼哈顿区的贝尔实验室。这次访问的目的是与一支研究电子语音加密技术的团队进行交流,这项技术可以利用电子方式对电话通话内容进行加密和解密。

章节插图

在1952年3月的庭审上,图灵承认了自己的罪名,但他明确表示自己不会为此感到后悔。麦克斯·纽曼也作为图灵的品行证人出席了这场审讯。在被宣判有罪和剥夺参加机密工作的权限之后,[7] 图灵面临着两个选择:坐牢或者缓刑,而第二个选择的条件是需要接受荷尔蒙治疗,也就是通过注射合成的雌激素来抑制性欲,这种治疗方法就像是把人当成由化学药物控制的机器一样。他选择了后者,这项治疗持续了一年的时间。

这是一台机器会做出的事情吗?

当时图灵还不想向外界透露自己身为同性恋者的事实,所以他在这部分的讨论当中保持了沉默。这场辩论会在1952年1月10日完成录制。在随后的几个星期里,图灵卷入了一系列可能让机器无法理解的事件当中。图灵在一篇小故事中提到了他打算如何庆祝自己刚刚完成了一篇科学论文:“自从去年夏天在巴黎遇到那位士兵之后,他已经维持了一段时间的单身生活。现在既然他的论文已经完成,他也应当去找另外一位男同志了。他知道在哪里可以找到合适的对象。”98

图灵的批评者提出的另外一个异议是,就算机器可以模仿思考,它也不会具有真正的意识。当参加图灵测试的人类在遣词造句的时候,他会将这些单词与现实世界的意义、情感、经验、感觉和观念联系起来。机器却不会这样做。如果没有这些联系的话,语言也只是一个脱离实际意义的游戏。

关于人工智能和人类意识的问题都可以追溯到非常久远的历史。对于这个领域的大多数问题,笛卡儿都能够运用现代的语言进行表述。“我思故我在”这个著名的哲学观点正是出自他在1637年出版的《谈谈方法》(Discourse on the Method )一书中。笛卡儿在这本书中写道:

在曼彻斯特的牛津街上,他偶然遇到了一位19岁的工人阶级流浪者阿诺德·穆雷(Arnold Murray)。在完成了BBC的节目录制之后,他邀请穆雷搬到他家一起居住。一天晚上,图灵向年轻的穆雷讲到了自己做过的一个梦,他梦到自己在和一台邪恶的计算机下象棋,他先激怒了它,然后逗它开心,最后在它麻痹大意的时候击败了它。他们两人的关系在随后的日子里变得越来越复杂,直到有一天,图灵在回家之后发现自己的住处遭窃,犯人正是穆雷的一个朋友。在向警方陈述这起案件的时候,他最终承认了自己和穆雷的同性恋关系,于是警方以“严重猥亵”的罪名逮捕了图灵。99

图灵起初似乎能够从容面对这些罪责,然而在1954年6月7日,他在咬下一口浸染过氰化物的苹果之后便与世长辞了。按照他的好友的说法,他一直以来都对《白雪公主》当中恶毒的王后将苹果浸在毒药里面的情景十分着迷。他的尸体最后被发现躺在床上,口吐白沫,他的体内被检测出了氰化物,身边还放着一个被咬过的苹果。

“人们一直都说计算机器只能用于执行指令,”图灵在1947年2月的一场演讲中向伦敦数学学会的成员讲解道,“但是它们必须按照这种方式使用吗?”然后他谈论到了能够调整自身指令表的新型存储程序计算机的前景。“它就像是一个学徒一样,不仅掌握了师傅的大部分技艺,还在其中加入了更多自己的心得。我认为当这种情况出现的时候,我们应当把它看成是机器拥有智能的表现。”90

至于何时会出现能够通过图灵测试的计算机,图灵给出了自己的预测:“我相信在50年左右的时间内,计算机编程技术将可能……实现可以顺利通过模仿游戏的计算机,普通询问者在经过5分钟的询问之后的判断准确率将不高于70%。”

之前的研究为图灵的下一篇重要论文打下了基础,这篇题为《计算机器与智能》的论文在1950年10月发表于哲学期刊《心灵》(Mind )上。94 他在其中提出了一个被称为“图灵测试”(Turing Test)的概念。论文的开篇是一条明确的声明:“我准备探讨‘机器能思考吗’这个问题。”然后,童心未泯的图灵设计了一个游戏(目前还有人在实践和争论这个游戏)来解释这个问题的实证含义。他为人工智能给出了一个完全可操作的定义:如果一台机器输出的内容和人类大脑别无二致的话,那么我们就没有理由坚持认为这台机器不是在“思考”。

章节插图
章节插图

图灵在那里遇到了一位为人风趣的天才克劳德·香农。这位曾经的麻省理工学院研究生在1937年完成了一篇影响深远的硕士论文,他在这篇论文当中展示了利用电子电路执行布尔代数(由逻辑命题转换而成的代数方程)的方式。香农和图灵开始在下午茶的时候聚在一起进行长时间的讨论。他们两位都对脑科学很感兴趣,而且他们发现各自在1937年发表的论文之间存在一个共同点:它们都证明了采用简单二进制指令操作的机器不仅可以用于解决数学问题,同时也适用于所有的逻辑问题。由于逻辑是人脑思维的基础,因此机器在理论上可以模仿人类的智能。

在研究如何制造存储程序计算机的过程中,艾伦·图灵将注意力转向了埃达·洛夫莱斯在一个世纪之前所做出的断言。埃达在巴贝奇分析机论文的最后一条“注解”中提出“机器不可能真正地思考”这一观点。图灵对此产生了这样的疑问:如果一台机器可以根据已处理的数据调整自己的程序,难道这不是某种形式的学习吗?这种方式可以发展成为人工智能吗?

“机器也许有一天能够像人类一样思考”这个令人不安的想法在当时激起了强烈的反对,而且这个问题从出现以来就一直争议不断。在这些反对的声音当中,既有来自宗教方面的抗议(这是意料之中的事情),也有从内容和语气上表现出来的情感抵触。李斯特奖章得主、知名脑外科医生杰弗里·杰斐逊爵士(Sir Geoffrey Jefferson)在1949年的著名获奖致辞中提出了这样的观点:“除非机器能够凭借思想和情感写出一首十四行诗,或者做出一部协奏曲,而且这些作品都不是符号的随意拼凑,否则我们是不会承认机器可以等同于人脑的。”92 作为回应,图灵向《泰晤士报》的记者说道:“这种比较也许有失公允,因为由一台机器写成的十四行诗,其他机器大概会比我们更能欣赏。”93 这个回应似乎有些无礼,但同时也是耐人寻味的。

对于这个异议,图灵提出了一个极具独创性的反驳观点:机器也许可以进行学习,从而逐渐发展出自己的主动性,并掌握产生新想法的能力。“与其尝试编写一个可以模拟成人大脑的程序,为什么不尝试模拟儿童的大脑呢?”他问道,“在经过适当的教育之后,它将有可能成长为成人的大脑。”他承认机器的学习过程会跟人类儿童不一样:“举个例子,它不会有双脚,所以老师不能叫它帮忙装满教室外面的煤斗。也许它也没有眼睛……所以如果把这个怪物带到学校的话,它肯定会被其他小朋友过分地取笑。”因此这台“儿童机器”将需要使用其他的方式进行教导。图灵提出了一种奖励和惩罚机制,它可以促使机器重复或者避免某些行为,最终这台机器将会培养出自己对于思考的概念。

[6] 此处指英文的押韵。——编者注

图灵预想到自己对思考的定义将会引来许多质疑,所以他尝试在论文中逐一反驳它们。针对来自神学方面的质疑,也就是上帝只将灵魂和思考能力赐给了人类,图灵表示这种观点实际上是对“上帝的全知全能的严重限制”。他提出了一个问题:上帝是否“有自由向一头合适的大象授予灵魂”?想必他是可以这样做的,那么按照同样的逻辑,上帝当然也可以随心所欲地向一台机器授予灵魂。这番话从不信仰上帝的图灵口中说出还是有些讽刺意味的。

其中最为有趣的一个异议(特别是从本书的内容来看)来自埃达·洛夫莱斯。“分析机不会主动创造任何东西,”她在1843年写道,“它可以根据我们能够给出的任何指令完成任务。它可以遵循分析,但它没有能力预见任何的分析关系和事实。”换句话说,跟人类大脑不一样的是,机械装置无法拥有自由意志,也不能产生自主性,它只能按照既定的程序执行任务。图灵在自己1950年的论文中将这个观点称为“洛夫莱斯夫人的异议”,并专门安排了一节的内容来讨论它。

约翰·巴丁(1908——1991)、威廉·肖克利(1910——1989)和沃尔特·布拉顿(1902——1987)在贝尔实验室,照片摄于1948年

在图灵参与的讨论之中有一个反复出现的主题——性欲和情感对人类思考的影响,而机器是不会受到这些影响的,这个主题也体现在图灵后来经历的悲剧当中。针对这个主题的一次公开讨论出现在1952年1月,当时图灵和脑外科医生杰弗里·杰斐逊爵士参加了由BBC(英国广播公司)举行的一场辩论会,担任辩论主持的是麦克斯·纽曼和科学哲学家理查德·布雷斯韦特(Richard Braithwatie)。“一般而言,一个人的喜好是由他的欲望、冲动和本能决定的。”布雷斯韦特表示如果要做出一台真正会思考的机器,“它似乎需要配备一些可以对应各种欲望的东西”。纽曼补充说机器“只有相当有限的欲望,而且它们在感到尴尬的时候也不会脸红”。杰斐逊甚至说出了更为出格的言论,他多次以“性冲动”作为例子,并反复提到了人类的“情感和本能,比如性欲”。他指出人类会受制于“性冲动”,而且“有可能会因此而变得愚蠢”。他谈到了太多关于性欲对人类思考的影响的内容,以至于BBC的编辑们不得不在广播的内容中剪掉他的部分言论,其中包括他表示自己是不会相信机器能思考的,除非他亲眼看到一台机器抚摸另外一台女性机器的大腿。97

问:你的十四行诗的第一行写着“我怎能将你与夏日相比”,如果将“夏日”换成“春日”会不会更好?

答:这样就不押韵了[6] 。

问:那如果换成“冬日”呢?这样就正好押韵了。

答:的确如此,但是没有人喜欢被比喻成冬日。

问:匹克威克先生(Mr. Pickwick)会让你想起圣诞节吗?

答:有点儿。

问:但圣诞节就是一个冬日啊,而且我认为匹克威克先生应该不会介意这个比喻。

答:我觉得你是在开玩笑。人们所说的冬日是指一个普通的冬日,而不是像圣诞节这样的特殊节日。

图灵测试,也就是图灵所说的“模仿游戏”(the imitation game)的操作很简单:一位询问者将自己的问题写下来,发给处于另外一个房间之中的一个人和一台机器,然后根据他们给出的答案确定哪个是真人。图灵给出了一个问答过程的示例:

在听完图灵的演讲之后,在座的听众陷入了一片沉默,他们都被图灵的想法震惊了。图灵当时在英国国家物理实验室工作,他的同事也无法理解他对制作会思考的机器的执着。国家物理实验室的主管查尔斯·达尔文爵士(Sir Charles Darwin,进化生物学家达尔文的孙子)在1947年向图灵的上司写信道:“图灵想要将自己对机器的研究拓展到生物学的领域”,并尝试解决“机器能否从经验中学习”这一问题。91

问:请以“福斯桥”(Forth Bridge)为主题写一首十四行诗。

答:我不会回答这道题,我从来没有写过诗。

问:34 957加70 764等于多少?

答:(在经过大概30秒之后给出答案)105 621。

问:你会下象棋吗?

答:会的。

问:我在K1处有棋子K,而且没有其他棋子。你在K6处有棋子K,在R1处有棋子R。现在轮到你了,你要下哪一步棋?

答:(在经过15秒之后)棋子R走到R8处,将军。

威廉·肖克利(坐在主座)在获得诺贝尔奖当天的庆功宴上,前来祝贺的同事包括戈登·摩尔(坐在左侧)和罗伯特·诺伊斯(站在中间的举杯者),照片摄于1956年

这个异议为图灵测试带来了一轮持续时间最长的质疑——哲学家约翰·希尔勒(John Searle)在1980年提出了一个叫作“中文房间”(Chinese Room)的思维实验。这个实验的内容是,在一个房间里面有一个以英语为母语,而且对中文一窍不通的人,他手上有一本详细列出所有中文搭配规则的手册。他会从房间外收到一些以中文写成的问题,然后根据这本手册写出中文的回答。只要有一本足够好的指导手册,房间里的回答者就可以让房间外的询问者相信他的母语是中文。尽管如此,他不会理解自己给出的任何一个回答,也不会表现出任何的意向性。按照埃达·洛夫莱斯的话来说,他不会主动地创造任何东西,只是根据得到的任何指令完成任务。同样地,对于参加图灵测试的机器来说,无论它可以如何成功地模仿人类,也不会理解或者意识到自己所说的东西。我们不能因此认为这台机器可以“思考”,正如我们不能认为使用一本大型指导手册的人可以理解中文一样。95

[7] 2013年圣诞节,伊丽莎白女王二世向图灵追授了正式的赦免。

“香农不仅想(向机器)输入数据,他还想输入文艺的东西!”图灵在一天吃午饭的时候向贝尔实验室的同事们说道,“他想对机器放音乐!”在另一天的午餐时,图灵继续滔滔不绝地发表自己的言论,他高亢的声线让餐厅里的高管人员都听得一清二楚:“不对,我没有兴趣做出一个超级大脑。我所追求的只是一个平庸的大脑,就像是美国电话电报公司(AT&T)的总裁一样。”89

在《计算机器与智能》发表之后的几年时间里,图灵似乎很喜欢参与到自己惹出的争论当中。他以自己带有讽刺性的幽默感取笑了那些关于十四行诗和人类高等意识的主张。“终有一天,女士们会带着她们的计算机到公园散步,并且互相诉说‘我的宝贝计算机在今天早上跟我说了这么一件有趣的事情’!”他在1951年调侃道。正如他的导师麦克斯·纽曼后来所说的:“他在解释自己的想法时会提出一些引人发笑的比喻,但它们又是恰到好处的,这点让他成为一位讨人喜欢的同事。”96

上一章 下一章