(http://www.iloveguava.com)
【大纪元1月17日讯】针对强AI观点,不少学者提出了尖锐的批评。美国哲学家约翰. 塞尔(John Searle,《皇帝新脑》一书将之译为约翰.西尔勒)设计了一个颇为有名的假想试验—中文屋子来反驳强AI观点。这个试验已成为当代西方哲学家在讨论身心关系、人工智能时经常引用的一个经典例证。
塞尔的“中文屋子”
塞尔说,设想一些计算机程序设计者设计出了一种能够使一台计算机模拟“理解”汉语的程序。比如,如果用汉语对这台计算机提问,它会运用自己的存储器和数据库对这个问题作出合适的汉语的回答 。假设这台计算机的答案和一个地道的中国人的答案一样,那么根据这个情况,能否说这台计算机已经理解了汉语?能否说它完全和一个 中国人一样理解汉语呢?接着,塞尔提出了他假想的中文屋子。
假设一个美国人被关在一个屋子里,他对汉语一窍不通,而屋子里有满满几筐汉字,而且有一本用英语写的用来处理这些汉语符号的规则,这些规则是按汉语的语法而不是语义,对符号的处理加以纯形式的规定。比如,规则中可能有这样的话:“从一号筐中取出’甲’符号,将它放在从二号筐中取出的’乙’符号的后面。”假设这时有另外一些汉语符号被送到屋子里来,这个人根据相应的规则将汉字送出屋外。假如他根本不知道送进屋来的这些符号就是屋外人的“问题 ”,也不知道送出屋外的那些符号就是所谓“问题的答案”。此外,还假设那些程序设计家善于设计程序,而这个人又善于处理符号,这 样,他的答案就和一个地道的中国人作出的回答没有什么不同。他在 屋子里搬弄符号,用送出去的符号回答送来的符号。在这种情况下,能说这个人懂得汉语吗?
塞尔用这个例子说明,如果通过适当的计算机程序来获得对汉语的理解力对屋中的人来说是不够的话,那么,对任何数字计算机来说也是不够的。“中文屋子”这个比喻的意义在于,计算机具有的是一种语法,而不是语义。而要理解一门语言,以至要完全具有心理状态,就需要具备比仅仅一套形式符号更多的东西,就要具备一种释义,或者说那些符号都要有意义。而计算机的运算是按其执行程序的能力来定义的,而这些程序是通过纯粹形式就加以规定,也就是说,它们不具有语义内容。
前面已经介绍了人工智能的形式化问题。的确,数字计算机的特点在于,其运算能被纯形式地表述。一种典型的计算机“规则”决定了一台机器如何处理某种状态,执行某种计算,比如擦掉一个符号,或打上另一个符号,然后进入另一状态。在塞尔看来,这些符号是没有意义的,它们不具有语义内容;它们不涉及任何事物。它们只能纯粹按照形式的或语法的结构加以确定。比如0与1只不过是数码,甚至 不能代表数。而人心不仅仅是形式和语法的过程。根据一般的定义, 我们的内在心理状态具有某种内容。比如,当一个人想起面包或饮料时,当一个人担心股市的走向时,在这种状态下,他/她的心理状态除了具有各种可能的形式特征以外,还具有某种心理内容。即使思想 以一连串的符号的形式出现在头脑中,但是思想所包含的决不止一些 抽象的符号串,因为符号串本身没有任何意义。如果人的思想要涉及 任何事物,符号串也必有某种意义,使得思想能够涉及到那种事物一句话,人心不仅是语法的,还有一个语义的方面。而计算机程序只是语法的,因此它永远也不可能代替人脑。
塞尔本是一位以研究语言哲学问题著称的分析哲学家,正是这样的学术背景使他想出了“中文屋子”的比喻,也是同样的原因使他从语法和语义的角度对人脑和电脑作出比较。来自语言学的思考,的确给人工智能涉及的哲学和心理学问题提供了不少启发。
(学术论文选登)
(http://www.dajiyuan.com)
相关文章