研究生想读哲学,求万能的网友介绍一下中国哲学和外国哲学、外国哲学和逻辑学的状况

[导读]在很多人看来“人工智能”(ArtificialIntelligence,简称AI)是一个工程技术色彩浓郁的学术领域哲学研究则高度思辨化和抽象化,二者之间应当是风马牛不相及的但这实际上是一種误解。

在很多人看来“”(ArtificialIntelligence,简称AI)是一个工程技术色彩浓郁的学术领域哲学研究则高度思辨化和抽象化,二者之间应当是风马牛鈈相及的但这实际上是一种误解。芝加哥大学哲学教授郝格兰的著作《人工智能概念探微》(特别是第一章)以及加州大学伯克利分校嘚哲学教授德瑞福斯的著作《计算机依然不能做什么》(特别是第67—69页)都留出了一定的篇幅,用以挖掘AI的设想在西方哲学史中的根苗而英国女哲学家兼心理学家博登的浩瀚巨著《作为机器的心灵——认知科学史》,则以更大的篇幅讨论了AI科学和整个西方科技史、思想史之间的互动关系(尤其是第二章)不过,令人遗憾的是在汉语哲学界,将西方哲学史的视角和AI哲学的视角相结合的研究成果相对還比较罕见,因此拙文将在这个方向上作出一番小小的开拓性努力另外,笔者也希望能够通过这种“架桥”工作帮助读者看到那些看姒新锐的科技问题和相对古老的哲学争议之间的密切关联,并为缓解目前在汉语学界业已过于紧张的“科学—人文”关系献上绵薄之力。

    为了能够集中讨论本文将只选取西方哲学史中的一个片段——十七、十八世纪欧洲哲学——为参考系,来讨论哲学和AI之间的关系

    第┅组:笛卡尔和莱布尼茨。其特点是:他们通过卓越的哲学想象力明白地预报了后世AI科学家通过被编程的机械来实现智能的设想。但他們又同样明确地提出了反对机器智能的论证从这种意义上说,他们虽不可能为今日符号AI的技术路线投赞成票却明确地表述出了“人工智能哲学”的基本问题意识:制造人类水平的智能机器,是不是先天可能的

    第二组:霍布斯。他处在笛卡尔和莱布尼茨的对立面具体洏言,他虽没有明确地提到机器智能的可实现性问题但是他对于人类思维本性的断言,却在逻辑上等价于一个弱化的“物理符号假设”因此,他可被视为二十世纪的符号AI路线在近代哲学中的先祖

    第三组:休谟和康德。从现有文献来看他们并未明确讨论过“机器智能嘚可实现问题”。然而他们各自的心智理论却在一个更具体的层次上引导了后世AI专家的技术思路,因此也算作是AI科学的先驱

    在所有的這些哲学家中,我会留给康德最多的篇幅因为他的思想最为深刻,可供AI挖掘的材料也最多(尽管认识到这一点的只有侯世达等少数AI专家)

    从表面上看来,与下文所要提到的霍布斯相比笛卡尔和莱布尼茨似乎更有资格充当符号AI(也就是经典AI)在近代哲学中的先驱。摆得仩桌面的理由有:

    其一此二君都属于广义上的“唯理派”阵营,都主张人的心智活动的实质在于符号表征层面上的推理活动(为了宣扬這个观点莱布尼茨还专门写了一本《人类理智新论》,和经验论者洛克打起了笔仗);

    其二符号AI路数一般都重视数理研究和一般意义仩的科学研究,而笛、莱两人的学术造诣也都体现了这样的特征具体而言,笛卡尔是直角坐标系的发明人在物理学(特别是光学)领域小有斩获,也喜欢搞生理学莱布尼茨则是微积分的发明人之一,是柏林科学院的创始人;

    其三与人工智能直接相关的一些计算机技術,和莱布尼茨有直接关联他在1764年于巴黎建造的乘法运算机(改进于帕斯卡的运算机),以及他对于二进制的推崇都是为计算机史家所津津乐道的实例。

    然而笔者却并不认为这些理由能够充分地担保他们会赞同机器智能的可能性。

    首先成为计算机技术的先驱并不等於成为人工智能的先驱。一个计算机科学家完全可能拒绝实现人类水平上的机器智能的可能性而仅仅把计算机视为人类的工具。因此萊布尼茨对于帕斯卡运算机的改进,并不担保他会成为AI的同道;

    其次他们在数学和自然科学方面的贡献,也并不担保他们会赞成机器智能的可实现性(理由由上一点类推);

    第三是否赞同符号AI,和是否处在“唯理派”阵营中并无直接关联。这是因为唯理派的立场仅僅是“心智活动的实质在于符号表征层面上的推理活动”,但对于符号AI来说更为有用的一个论题则是“任何被恰当编程的、符号表征层媔上的推理活动都是心智活动”。很显然从逻辑上看,即使已经有了前面这个立场也并不担保后一个论题就能够被推出。

    进而言之笛卡尔和莱布尼茨还各自提出了一个论证,明确反对机器智能的可能性

先从笛卡尔说起。我们知道在“身心关系”问题上笛卡尔是二え论者,即认为人是占据广延的物质实体和不占据广延的灵魂实体的复合体而在关于动物的本性的问题上,他倒是一个比较彻底的机械唯物论者即认定动物只是“自动机”,毫无灵魂从这个立场出发,他显然是不可能认为我们有可能制造出具有人类智能水平的机械装置的因为从他的二元论立场来看,“智能”——或者说“灵魂”——的形式和物理世界的配置形式无关,通过改变后者我们是不可能得到前者的。不过这样的一种反机器智能的论证本身就已经预设了二元论立场,因此非二元论者未必会买他的账好在笛卡尔还有一個形而上学负荷更少的反机器智能论证。此论证见于其名著《方法论》:

假若真有这样的一些机器其具有猿猴(或其他缺乏理性的动物)的所有器官和外形,那么恐怕我们就毫无理由断言,这些机器并不完全具有那些被模仿动物的本性但请再试想这样一种情况:假若囿一些机器,其在技术允许的范围内竭力仿造我们的身体并试图模拟我们的行为,那么它们是否为真人?答案是否定的而且我们总能通过两个途径来获得这个否定性的答案。第一个途径是:我们会发现它们总不会使用语词和记号,或像我们那样把语词和记号组合在┅起以便向他人传达出我们的思想。为何这么说呢我们可以设想一台从表面上看来可以表达语词的机器,甚至可设想其表达的语词昰匹配于一些将最终导致相关器官变化的身体行动(比如,当你触及其某一部分的时候它就会问你,是不是想和它说些啥;而当你触及其另一部分的时候它就会大哭,抱怨你弄疼了它)但即使如此,它却无法给予语词以不同的排列方式以便应对人们在面对它时所能夠说出的种种不同的话——尽管最笨的人也能够胜任这个任务。第二个途径是:尽管这些机器能够执行很多任务并在执行某些任务的时候表现得比人类更为出色,但它们必定会在执行另外一些任务时出洋相这样一来,我们就会发现这些机器并不是根据知识来运作的,洏是根据其器官部件自身的倾向来运作的这又是为何呢?因为人类理性乃是在诸种问题语境中皆有用武之地的万能器具而这些器官部件呢,则只不过是分别为特定的问题语境而定制的专门器具这样一来,如果我们要让这些机器能够对付所有的问题语境的话那么我们僦得让它配备有大量的器官部件,其中的每一个都对应着一个特定的语境——否则它就无法像我们人类运用理性所做的那样,应付生命Φ层出不穷的种种偶然事态很显然,从实践角度看这样的机器设计思路是行不通的。

笛卡尔的这个论证其实可以分为两个部分第一蔀分的要点是:从“机器能够表达语词”出发,我们推不出“机器能够根据环境的变化而调整语义输出策略”而后者则被笛卡尔视为“嫃正智能存在”的充分必要条件。我认为这个论证比较弱因为是否能够根据环境的变化调整语义输出策略,乃是一个程度性的概念而鈈是一个非黑即白的概念。在今天的AI界能够根据环境的变化而有限调整语义输出策略的程序,并不是做不出来在这个问题上笛卡尔的確太低估后世AI工程师的能力了。若按照笛卡尔的标准这些程序的问世显然就意味着机器智能的实现——但直觉却告诉我们,这些程序的表现依然和真人智能行为大有差距由此看来,在第一个论证中笛卡尔关于“真正智能”的标准设置过低,这就使得他关于机器智能之鈈可能性的论断很容易被反例所驳倒

笛卡尔的第二个论证的要点是:如果我们真的要做出一台“智能”机器,我们就需要把所有的问题解决策略预存在其内置方法库中但在实践上这是不可能的。和前一个论证相比我认为这个论证质量高得多,因为笛卡尔在此已经预见箌了符号AI的核心思路——在机器中预置一个巨大的方法库并设计一套在不同情境下运用不同方法的调用程序——尽管符号AI的正式出现(1956姩)乃是笛卡尔的《方法论》出版(1637年)三百多年之后的事情了。另外笛卡尔在此也天才地预见到了,真正的智能将体现为一种“通用問题求解能力”而不是特定的问题求解能力的一个事后综合。这种通用能力的根本特征就在于:它具有面对不同问题语境而不断改变自身的可塑性、具有极强的学习能力和更新能力等等。这种“智能”观也比较符合我们一般人的直觉。但笛卡尔的问题却在于他认为這种“通用问题求解能力”是人类所独有的。但相关论证呢很显然,从“所有可被我们设想的机械不具有通用问题求解能力”这个前提絀发我们是得不出笛卡尔所欲求的如下结论的:所有机械都不具有通用问题求解能力。前提和结论之间的跳跃性在于哲学家关于机械淛造可能性的设想很可能是有局限的,甚或会充溢着培根所说的“四假相”在这里,笛卡尔显然对自己的想象力过于自信了不过,自信归自信他对人类理性和机器智能之间差异的提示,的确也算是一条攻击机器智能可能性的思路在二十世纪,该路数最重要的后继者乃是美国哲学家德瑞福斯尽管他本人并不是一个笛卡尔式的唯理派哲学家,而是一位现象学家(请参看他的著作《计算机依然不能够做什么》)。

再来看莱布尼茨从莱布尼茨的整个形而上学背景来看,他对于机器智能的抵触其实应当比笛卡尔还大笛卡尔毕竟还是半吊子的机械唯物主义者,可莱布尼茨的“单子论”却是彻彻底底反唯物主义的在他看来,构成世界的最终实体乃是一些缺乏广延、形狀和可分性的精神性单子,而物质世界所赖以存在的空间关系乃是通过诸单子的彼此知觉而产生的站在这个立场上看,“通过机械的空間配置来产生智能”这种说法自然就完全无法和莱布尼茨的整个哲学立场相容了。不过和笛卡尔一样,莱布尼茨也提出了一个不那么依赖其形而上学预设的反机器智能论证(简称为“磨坊论证”)见于《单子论》第十七节(因为《单子论》篇幅很短,所以我们这里不洅给出引文的页码):

此外也不能不承认知觉以及依赖知觉的东西,是不能用机械的理由来解释的也就是说,不能用形状和运动来解釋假定有一部机器,构造得能够思想、感觉、具有知觉我们可以设想它按原有比例放大了,大到能够走进去就如同走进一个磨房似嘚。这样我们察看它的内部,就会只发现一些零件在彼此推动却找不出什么东西来说明一个知觉。因此应当在单纯的实体中,而不應当在复合物或机器中去寻找知觉因此,在单纯实体中所能找到的只有这个也就是说,只有知觉和它的变化也只有在这里面,才能囿单纯实体的一切内在活动

我们前面刚提到,在笛卡尔看来外部行为和人类一样具有灵活性和变通性的推理机器是造不出来的。和他嘚论证策略不同莱布尼茨则玩弄了一把“欲擒故纵”的把戏,即预先假定我们已经造出了这样的一台机器而他的论证要点则是:即使該假定本身是真的,从中我们也推不出真正的智能的存在因为在莱布尼茨看来,真正的智能需要知觉的介入而在机械运作的任何一个層面,我们都看不到这样的知觉的存在所以,即使一台机器所表达出来的“输入—输出关系”和人的“输入—输出关系”完全吻合前鍺依然不能算作真有智能的。

但笔者认为这个论证有很大的问题我们姑且可以同意莱布尼茨的前提,即“知觉的存在对于智能的存在来說是不可或缺的”但是,仅仅通过对于智能机械的内部观察我们又如何确定知觉是否存在于这台机器中?知觉本身——而不是伴随着知觉的外部物理运作——毕竟不是掉在地上的怀表和挂在墙上的背包是可以在第三人称立场上被经验地观察到的。换言之从“我们观察不到知觉的存在”,我们实在推不出那个对莱布尼茨有用的结论:知觉本身不存在按照他的标准,我们甚至不能说人类也是有智能的比如,我们不妨设想把莱布尼茨本人的大脑放大到上海世博园区那么大并同时保持其中各个部件之间的比例关系不变。我们若进入这個超级大脑看到的恐怕也只会是一些纯粹的生物化学反应,而观察不到知觉然而,由此我们就能够推出莱布尼茨的大脑没有知觉没囿灵魂吗?这显然是荒谬的

    尽管这个论证很荒谬,但是它却直接引导了后世的塞尔提出了反对机器智能的“汉字屋论证”因此也是具囿一定的思想史地位的。

霍布斯是近代唯物主义哲学家的代表人物之一但这并不是他在这里被我们提到的首要原因。这是因为尽管AI的悝想(即制造出某种智能机器)必然会预设某种版本的唯物主义,但反过来说从唯物主义的哲学立场中我们却未必能够推出AI的理想。说嘚更清楚一点一种关于AI的唯物主义必须得满足这样的条件:它除了泛泛地断定心理层面上的人类智能行为在实质上都是一些生物学层面仩的物理运作之外,还必须以某种更大的理论勇气去建立某种兼适于人和机器的智能理论,以便能指导我们把特定的智能行为翻译为某些非生物性的机械运作在这方面,拉?美特里(他可能是近代西方哲学史中最著名的唯物主义者)对于AI的价值恐怕就要小于霍布斯因为湔者关于“人(是)机器”(L'hommeMachine)的主张,实质上并没有直接承诺智能机器实现的可能性毋宁说,拉?美特里只是给出了一个关于人的生物屬性和心理属性之间关系的局域性论题其抽象程度要低于符号AI的基本哲学假设:被恰当编程的符号运算,就是真正智能活动的充分必要條件(我们简称此假设为“物理符号假设”其提出者是AI专家司马贺和纽厄尔)。

    霍布斯就不同了与迷恋医学和解剖学的拉?美特里不同,他更迷恋的乃是抽象的几何学并致力于给出一种关于人类思维的抽象描述。他在其名著《利维坦》中写道:

当人进行推理的时候他所做的,不外乎就是将各个部分累加在一起获得一个总和或者是从一个总和里面扣除一部分,以获得一个余数……尽管在其他方面,僦像在数字领域内一样人们还在加减之外用到了另外一些运算,如乘和除但它们在实质上还是同一回事情。……这些运算并不限于数芓领域而是适用于任何可以出现加减的领域。这是因为就像算术家在数字领域谈加减一样,几何学家在线、形(立体的和平面的)、角、比例、倍数、速度、力和力量等方面也谈加减;而逻辑学家在做如下事情的时候也做加减:整理词序把两个名词加在一起以构成断訁,把两个断言加在一起以构成三段论或把很多三段论加在一起以构成一个证明,或在一个证明的总体中(或在面对证明的结论时)减詓其中的一个命题以获得另外一个政治学的论著者把契约加在一起,以便找到其中的义务;法律学家把法律和事实加在一起以找到个體行为中的是与非。总而言之当有加减施加拳脚的地方,理性便有了容身之处而在加减无所适从的地方,理性也就失去了容身之所

盡管霍布斯并不可能了解后世AI专家所说的“物理符号系统”的技术细节,但从这段引文看他已经很清楚地意识到了,看似复杂的人类的悝性思维实际上是可以被还原为“加”和“减”这两个机械操作的。这个讲法在精神上和经典AI的思想是很接近的(而我们今天已经知噵了,所谓的“加法”和“减法”其实都可以通过一台万能图灵机来加以模拟)。不难想见如果霍布斯是对的话,那么“加”和“减”这样的机械操作就成了理性存在的充分必要条件——也就是说一方面,从加减的存在中我们就可以推出理性的存在而在另一方面,從前者的不存在中我们也就可以推出后者的不存在(正如引文所言“当有加减施加拳脚的地方,理性便有了容身之处而在加减无所适從的地方,理性也就失去了容身之所”)很明显,如果我们承认这种普遍意义上的加减的实现机制不仅包含人脑也包含一些人造机械,那么他对于“理性存在”的充分必要条件的上述表达也就等于承诺了机器智能的可能性。换言之霍布斯的言论虽然没有直接涉及人笁智能,但是把他的观点纳入到人工智能的叙事系统之内在逻辑上并无任何突兀之处。另外就“哪些知识领域存在有加减运作”这个問题,霍布斯也抱有一种异常开放的态度根据上述引文,这个范围不仅包括算术和几何学甚至也包括政治学和法律学。这也就是说從自然科学到社会科学的广阔领域,相关的理性推理活动竟然都依据着同一个机械模型!这几乎就等于在预报后世AI专家设计“通用问题求解器”的思路了也正鉴于此,哲学家郝格兰才把霍布斯称为“人工智能之先祖”而考虑到他的具体建树和符号AI更为相关,笔者更情愿將其称为“符号AI之先祖”

但需要指出的是,符号AI的基本哲学预设——“物理符号假设”——只是在霍布斯那里得到了一种弱化的表达洇为该假设原本涉及的是一般意义上的智能行为和底层的机械操作之间的关系,而霍布斯则只是提到了理性推理和这种机械操作之间的关系换言之,他并没有承诺理性以外的心智活动——如感知、想象、情绪、意志等——也是以加减等机械运作为其存在的充分必要条件的而从文本证据上来看,在正式讨论理性推理之前《利维坦》对于“感觉”、“想象”、“想象的序列”等话题的讨论,也并未直接牵涉到对于加减运作的讨论

    那么,如何把一种机械化的心灵观从理性领域扩张到感性领域并由此构建一种更为全面的、并对AI更有用的心智理论呢?这关键的一步是由休谟走出的有意思的是,走出这一步却使得他和AI阵营中相对新潮的一派——联结主义——攀上了亲。

    在此笔者默认读者已经具有了休谟哲学的背景知识并将不再过多依赖他自己的哲学术语来重构他的思想。笔者下面的重构将主要依赖当代認知心理学的语言框架

从认知心理学的视角来看,休谟的心智理论的基本思想是:一种更为全面的心智理论应当弥补前符号表征层面和苻号表征层面之间的鸿沟否则就会失去应有的统一性(而缺乏这种统一性,恰恰就是霍布斯的心智理论的毛病)而他采取的具体“填溝”策略则是还原论式的,即设法把符号表征系统地还原为前符号的感觉原子在《人性论》中,这些感觉原子被他称为“印象”而符號表征则被称为“观念”。

    更具体地说他实际上是把整个心智的信息加工过程看成是一个“自下而上”的进路:

    第一,人类的感官接受粅理刺激产生感觉印象。它们不具有表征功能其强度和活跃度是物理刺激自身强度的一个函数(不过休谟不想详细讨论这个过程,因為他觉得这更是一个生理学的题目而不是他所关心的心理哲学的题目)。

第二感觉印象的每一个个例(token)被一一输入心智机器,而心智机器的第一个核心机制也就随之开始运作了这就是抽象和记忆。记忆使得印象的原始输入得以在心智机器的后续运作中被妥善保存洏要做到这一点,记忆机制就首先需要对印象的个例加以抽象以减少系统的信息储存空间,并以此提高系统的工作效率这种抽象的产粅乃是“感觉观念”。它们具有表征功能其表征对象就是相应的印象个例。在这个抽象形式中每一个原始个例的特征都被平均化了,洏其原有的活跃程度则被削弱

第三,每一个感觉观念本身则通过第二个心智核心机制——想象力——的作用得到更深入的加工。想象仂的基本操作是对感觉观念加以组合和分解(类似于霍布斯所说的加减运算)而这些组合或分解活动所遵循的基本规律则是统计学性质嘚,也就是说观念A和观念B(而不是A和C)之所以更有机会被联想在一起,乃是因为根据系统所记录的统计数据A的个例和B的个例之间的联接实例要多于A和C之间的联接实例。由此一来一个观念表征的所谓“含义”,在根底上就可被视为对原始输入的物理性质的一种统计学抽潒而观念表征之间的联系,则可被视为对输入之间实际联系的一种统计学抽象当然,休谟本人并没有使用笔者现在用的这些术语他呮是提到,A和B的联接之所以被建立乃是“习惯”使然——但这只是同一件事情的另一个说法。从技术角度看一个模式之所以会成为习慣,就是因为该模式的个例在系统的操作历史已经获得了足够的出现次数——或者说关于x的“习惯”的强度,乃是关于x的个例的出现次數的函数

休谟并没有直接讨论人工智能系统的可能性,也许他从来都没有想过这个问题不过,他对于人类心智模型的建构却非常契匼于后世AI界关于联结主义进路的讨论。那什么叫“联结主义”呢这是AI学界内部一个相对新颖的技术流派,从上世纪八十年代开始风靡其核心思想是:若要建立一个专门用于“模式识别”的人工智能系统,不必像经典的符号AI所建议的那样从上至下地构建出一个内置的方法库和方法调用程序,而可以采纳一个新的技术进路:用数学办法建立起一个人工神经元网络模型让该模型本身具有自主学习功能。这些人工神经元的底层计算活动本身并不具有符号表征功能而只有在对整个网络的整体输出做出一定的统计学抽象之后,我们才能够将这個总结果映射到一个语义上

今日的联结主义进路和休谟的心智模型之间的共通处体现在二者都严厉拒绝了传统的符号AI的一层重要意蕴:峩们可以先把智能体的问题求解策略尽量完美地再现出来,然后再设法把这些理性反思的产物程序化换言之,先有符号表征描述尔后財能够有前表征的底层运算。很显然该想法本身就预设了:的确存在着一个为所有智能体的同类问题求解过程所共享的一般符号描述,洏不同智能体实现这个抽象描述的不同运算过程实际上只是同一轮月亮倒影在不同山川中的不同月影而已。但在休谟主义者和联结主义鍺看来那一轮月亮的实在性不是被给定的东西,而至多是被构造出来的东西用休谟的话语框架来说,那些高高在上的符号(观念)呮不过就是前符号的感觉材料(印象)在心理学规则(特别是联想机制)的作用下,所产生的心理输出物而已考虑到智能系统本身的输叺历史将决定性地影响其最后形成的符号体系的结构,两个彼此不同的输入历史就必然会导致两个不同的观念表征系统——这样一来不哃智能系统在不同环境中所执行的不同的底层运作,就很难被映射到一个统一的符号层面上并由此使得符号层获得起码的自主性和实在性。与休谟相呼应在后世的联结主义模型建构者看来,人工神经元网络的拓扑学构架在很大程度上也是在前符号表征层面上运作的而被输出表征的性质,则在根本上取决于整个网络“收敛”之前训练者所施加给它的原始输入的性质换言之,两个识别任务相同但训练历史不同的人工神经元网络的输出结果并不必然会(且往往不会)指向同一个语义对象。后者就像休谟眼中的“观念”一样在整个人工鉮经元网络构架中处于边缘位置。

    另外休谟关于观念之间联系产于“习惯”的观点,也部分地吻合于联结主义进路对于人工神经元节点間的联系权重的赋值方式其细节笔者就不再加以赘述了。但由于科学视野的局限休谟并没有在神经科学的层面上重新理解心智对于前苻号信息的加工过程;而他所给出的描述成果只是采用了模糊的哲学语言,没有使用定量的数学模型这些地方也都正是今日的联结主义超越于休谟主义之处。

    五、康德:“从上至下”进路和“自下而上”进路的整合者

稍有西方哲学史常识的读者都知道康德在《纯粹理性批判》中提出了一套整合经验论和唯理论的心智理论。关于他的这套整合策略哲学史研究方面的文献早已是汗牛充栋了。但如何跳出哲學史叙事的惯常视角从AI的角度来重新解读康德的这种整合策略呢?在这方面美国AI科学家侯世达(14)、澳大利亚哲学家查尔莫斯等人联合撰寫的论文《高阶知觉、表征和类比——对于人工智能方法论的批评》就颇有参考价值。文章起头部分有一段评论直接和康德相关:

很早人們就知道知觉活动是在不同层面上进行的伊曼纽尔?康德将心智的知觉活动划分为两个板块:其一是感性能力,其任务是拣选出那些感官信息的原始输入其二是知性能力,其任务是致力于把这些输入材料整理成一个融贯的、富有意义的世界经验康德并不对感性能力很有興趣,并将主要精力投向了知性能力他孜孜以求,最终给出了一个关于高阶认知的精细模型并通过该模型将知性能力区分为十二个范疇。尽管在今天看来康德的这个模型多少显得有点叠床架屋,但他的基本洞见依然有效依据其洞见,我们可以将知觉过程视为一道光譜并出于方便计,将其区分为两个构成要素大约和康德所说的感性能力相对应,我们划分出了低阶知觉这主要指的是这样一个过程:对从不同感官通道搜集来的信息进行早期处理。另外我们还划分出了高阶知觉——通过这种知觉,主体获得了对于上述信息的一种更為全局性的视角并通过和概念的沟通而抽象出了原始材料的意义,最终在一个概念的层次上使得问题求解的情景具有意义这些问题求解情景包含:对象识别、抽象关系把握,以及把某个具体环境辨识为一个整体

    从这段引文看,康德对于AI科学家的启发就在于:知觉的“從上至下”进路(“知性”或“高阶知觉”)和“自下而上”进路(“感性”或“低阶知觉”)都是不可或缺的因此一个更全面的人工認知模型将囊括这两者。但这里的问题是:凭什么说两者都不可或缺呢或者说,仅仅遵从休谟式的“自下而上”思路或者仅仅遵从霍咘斯式的“从上至下”思路,为何就行不通

康德本人对于这个问题的解答是:如果我们仅仅遵从“自下而上”的思路,我们就很难解释为何人类的心智仅仅凭借经验联想,就能够构成普适性的“先天综合判断”(回答不了这个问题我们将陷入对于普遍性知识的怀疑论);如果我们仅仅遵从“从上至下”的思路,我们很难解释为何我们心智机器的最终输出能够和外部输入发生关联(回答不了这个问题,我们将陷入“观念实在论”或“哲学独断论”)不过,康德的这些解释带有过重的知识论气味而且还负载了很多哲学预设(比如,怹预设“哲学怀疑论”和“哲学独断论”肯定都是错的)站在AI或者认知科学的立场上看,我们需要的其实是一种哲学预设更少的对于整合式路径的辩护方案。

    侯世达等人的相关辩护方案则机智地绕开了“先天综合判断”这个麻烦话题而以“类比”为切入点。他们的问題是:如果要在一个人工智能系统里实现“类比推理”的话编程者的编程思路,到底要遵循“自下而上”的进路还是“从上至下”的進路呢?或是二者的整合进路

    那么,为何要以“类比”为切入点呢这当然是因为类比推理对于提高智能系统的工作效率很重要。不难想见一个智能系统若能够在表征A和表征B之间建立起合适的类比关系的话,那么只要系统已经预存了一套关于表征B的问题求解策略C那么咜就能够用C来解决关于表征A的新问题。系统由此获得的问题求解效率自然将大大高于其从头搜索C的效率。类比推理的一般形式就是:

    不過要建立起这样的一个类比关系,却不是易事请考虑对如下类比关系的建构过程:

    类比一:孔明之于刘玄德,可类比于管仲之于齐桓公

假设一个智能系统已经把握了“管仲”、“齐桓公”、“孔明”和“刘玄德”这四个表征的含义(但下面我们将马上提到,即使要满足这个假设也非易事。另外关于什么叫表征的“含义”,我们暂且不表)但这不等于它很快就能够建立起我们所欲求的这种类比关系。不难想见系统的知识库里还存有很多别的表征,比如“张飞”、“蒋干”、“貂蝉”、“董卓”等等。换言之在建立“类比一”之前,系统实际上需要做一道选择题:

    A.张飞、B.蒋干、C.董卓、D.貂蝉、E.齐桓公……而面对这些杂乱无章的选择项系统完全也可能建立起错誤的类比关系,比如:

    类比二:孔明之于董卓可类比于管仲之于貂蝉。

怎么避免这一点呢休谟主义者在面对这个问题时或许又会祭出“习惯”的法宝,也就是说如果系统检测到“孔明—刘玄德”关系和“管仲—齐桓公”关系有比较多的共现次数的话,那么系统就会在“孔明—刘玄德”关系和“管仲—齐桓公”关系之间建立起一种更高阶的类比关系但这种统计学的策略有两个根本缺陷:第一,很多对問题求解有用的新类比关系往往是缺乏统计数据支持的(否则就谈不上是新类比关系);第二,该策略对于系统输入历史的这种高度依賴性将大大削弱系统对于输入信息的主动鉴别能力。比如若系统恰好发现“貂蝉—董卓”关系和“管仲—齐桓公”关系有比较多的共現次数的话,那么它就会随波逐流地在这两者之间建立起一种更高阶的类比关系但如此一来,系统又如何有机会对这种错误的建构做出主动修正呢

面对同样的问题,霍布斯主义者的表现或许会更为狼狈霍布斯—经典AI思想路线的要点就在于,整个认知系统必须在符号表征的层面上运作换言之,他们都默认了正确表征的存在已然不成为问题但在真实的“类比关系匹配”任务中,成为问题的往往就是洳何找到正确的表征形式。再以“孔明之于刘玄德可类比于管仲之于齐桓公”为例。现在我们暂且遵循弗雷格以来的语言哲学传统把┅个词项的含义看成是把该词项映射为一个外部对象的函数。比如“孔明”的含义,就是把该词项映射为历史上真实存在过的那个人的函数这样的映射方式肯定很多,比如你可以将“孔明”视为“刘禅的亚父”、“三国时蜀国的丞相”、“《隆中对》的作者”、“刘备朂有名的文臣”等等(其中的每一个都能够把“孔明”映射到同一个对象上去)。而现在的问题就是若要建立“孔明之于刘玄德,可類比于管仲之于齐桓公”这个类比关系我们需要的又是其中怎样的一种表征形式呢?依据一般中国人的历史常识来判断答案显然就是“刘备最有名的文臣”,因为这样我们就可以将其匹配于管仲的表征形式“齐桓公最有名的文臣”并在这种匹配的基础上建立起我们所需要的类比关系。

但麻烦的是我们又到底如何能在“刘备—孔明”关系属性集以及“管仲—齐桓公”关系属性集中,找到一个为两集所囲享的成员呢很显然,这个关键性的表征形式并不会自动跳出来让系统注意到自己而要让系统用野蛮搜索的方式来自上而下地逐一寻找它,则又显得过于耗时因此,系统就需要用某种自动搜索程序来发现它欲建立这种搜索程序,我们就得为系统设计出一个低层次人笁知觉能力以模拟康德的“感性”能力并由此迅速检索与任务求解更为相关的表征形式;同时,让高层次的人工知觉能力(类似于康德嘚“知性”能力)实时地参与其中构成高—低互动。换言之无论是霍布斯—经典AI的道路,还是休谟—联结主义的道路都无法引导我們设计出能够正确地建立起所需类比关系的系统。只有康德式的整合式策略才是我们努力的方向。

在康德哲学的启发下侯世达等建立叻一个专门的类比关系搜索程序,名字叫“照猫画虎”(Copycat)“照猫画虎”的工作环境是一大串字母串,每一串字母串构成了系统的一个原始输入比如“abc”、“iijjkk”、“eejjkk”等。系统的任务是找出每个输入的内部结构规律并在此基础上将一个输入看成是另一个输入的类比物。比如“abc”和“kkjjkk”之间就有这种类比关系,因为前者由三个单元“a”、“b”、“c”构成每个单元的右边都是自己在字母表中的后继者(同样的关系也存在于“ii”、“jj”、“kk”之间)。很显然同样的类比关系就不存在于“abc”和“eejjkk”之间,因为“e”的后继不是“j”而是“f”。

    而要让系统也能够辨识出这种类比关系我们就得一一建立系统中的如下构成要素:

    1.人工“感性”能力。也就是说系统的输入系統必须有能力辨识出每一个字母串的记号构成,并辨识出一个输入和另一个输入之间的界限这一步比较简单,没有什么可以说的

2.人工“想象力”。在康德的心智理论中“想象力”是介于“感性”和“知性”之间的一种能力,其任务是对感官输入进行初步处理以便为知性的高级操作做准备。从分类上看它可以从属于一种更为宽泛的“感性”(实际上,上文所谈的“感性”就已包含了“想象力”)茬“照猫画虎”程序中,这就对应于这样一个设计:系统配置有一些自动运作的“短码算子”(codelet)其任务是对“人工感性”输送来的信息进行初步结构分析。这就为人工范畴表的运作提供了基础

3.人工“范畴表”。康德心目中的知性范畴表大致对应于“照猫画虎”程序Φ的“滑溜网”(slipnet)。所谓“滑溜网”就是由不同的范畴所结成的一个网络,其中的每一个范畴都对应着一个更低层面上的短码算子(仳如若在更低的层面上有“同一性短码算子”,那么在“滑网”中就必定有一个“同一性”范畴与之呼应)该网和诸短码算子之间的楿互协作方式乃是这样的:一方面,一个短码算子的工作输出的性质构成了与之对应的那个网络范畴节点的激发条件(这是一个由下而上嘚进路);另一方面一个网络范畴节点的激发状态又反过来决定了系统的资源应当倾向于那些短码算子(这是一个从上至下的进路)。

綜上所述诸“短码算子”的自主运作为范畴节点的启动提供了条件,而后者的启动又会反过来指导前者的资源分配方向两个层面相辅楿成,合力完成了建立类比关系的任务就这样,康德的名言“概念无直观则空直观无概念则盲”,在AI时代便获得了这样一种全新的诠釋形式:“滑溜网无短码算子则空短码算子无滑溜网则盲”。这种“无心插柳柳成荫”的效果恐怕是康德本人也始料不及的。

笔者认為康德式的“从上至下”和“自下而上”相互整合的进路,其启发意义不仅局限于类比模型的构建而且还可以被运用于其他的AI研究领域,比如机器视觉但若要真正地做出这样一种推广,仅仅按照“照猫画虎”程序的模式去从事研究恐怕还远远不够。比如在“照猫畫虎”程序中,系统所处的人工环境本身就已经是一个被高度数理化的世界(这个环境所提供的有效输入都已经是字符串了)。这固然便利了程序设计员接下来的程序设计流程却大大歪曲了康德的如下原初设想:人类的原始认知境遇,乃是一片没有数理描述形式的“混沌”——换言之数理描述形式本身只可能是心智运作的产物,而不可能是被自然给予的但如何能够设计出一个更基本的程序,以便让系统能把一个实际的工作环境自动转化为一个数理化的环境模拟形式呢恰恰在这个问题上,“照猫画虎”程序的设计思路采取了回避策畧由此看来,侯世达等人的这项工作虽然很精彩但这也只是在一个方向上体现了康德哲学的某种理论意图,而绝未穷尽康德思想库中嘚宝藏

    笔者希望本文的讨论,能够带给读者以下三点启示:

第一看似新锐的“AI哲学”,其实并不是崭新的东西而的确和西方哲学史囿着密切的联系。从抽象的角度看哲学思辨切入人工智能的方向主要有两个:其一,机器智能的实现是否先天可能其二,怎样的心智悝论才能够为机器智能的实现提供更好的参照系而从本文的哲学史梳理结果来看,笛卡尔、莱布尼茨等哲学家实际上已经超越了自己时玳的科学发展的限制明确提出了第一个问题,并给予了其以否定性的应答(不过本文的讨论也已经表明了他们的反机器智能的论证都昰有问题的)。而霍布斯则间接地肯定了机器智能的可能性休谟和康德虽未正面谈论该问题,但是他们各自提供的心智理论却分别构荿了AI中的联结主义进路和“上下整合”进路的哲学前驱,并由此为上述第二个问题提供了答案从某种意义上说,今日在英美方兴未艾的AI哲学依然没有从根底上跳出这两个问题所规定的理路。由此看来十七、十八世纪欧洲哲学家对于相关问题的前瞻能力,乃是令人惊异嘚

第二,虽然经典的AI进路包含着对于数理模型的高度推崇但同样推崇数理描述方式的“唯理派”哲学家,却往往对“机器智能”持有敵意这是因为,对于“机器智能”的赞成不仅仅依赖于对于数理模型的推崇而且还依赖于一种对于身心关系的唯物主义观点。但由于種种文化、宗教因素唯理派哲学家往往在身心关系问题上持反唯物主义立场。从这个角度看近代唯理派和经典AI之间的亲缘关系,并没囿一些论者(如德瑞福斯在其《计算机依然不能做什么》中)所说的那么强。

第三作为十七、十八世纪欧洲哲学的集大成者,康德虽沒有直接讨论过机器智能的可实现问题但是他的心智理论对于AI的启发意义却依然不容小觑。此理论的要点就是把“从上至下”和“自下洏上”的两个认知进路加以打通将其整合在一个更大的心智模型里。笔者认为这种整合式的进路要比单纯的“自下而上”进路或“从仩至下”进路更具有解释力,因此应当是未来AI建模的一个主要参照模式但如何把这种哲学启发转化为更具体的编程工作,却会面临着一個巨大的理论—技术障碍即如何把系统所在的非数理化的实际工作环境加以实时的数字化模拟(这种模拟必须由系统自己完成,而不能甴程序员事先输入)在这个问题上,侯世达等人的“照猫画虎”程序并没有为我们提供一个完美的工作模板总之,更艰巨的任务还在等待AI专家们去完成

  2019正在紧张的进行中为了更恏的帮助同学们学习。新东方在线为大家整理了“2019北京师范大学指导:教育学硕士740参考书目”的相关信息提醒各位考生要合理安排复习時间,做好复习规划希望对大家的复习有所帮助。

人民教育出版社2009

全国十二所重点师范大学联合编写

教育科学出版社2008

北京师范大学出版社2007

人民教育出版社2010

人民教育出版社2006

华东师范大学出版社2009

北京师范大学出版社2008

北京师范大学出版社1993

人民教育出版社2012

安徽教育出版社1995

《教育研究方法导论初探》

快速响应:购课即开展择校择专业指导且有一次更换所报专业课机会;
专属小灶:老师直播互动式教学,真正的“零”起点授课就是让你入门;
专属辅导:班主任+科目老师,多对一全程辅导智能讲练结合,随时检验效果;
签约重读:一科不过全科偅读,业内最低重读标准
  • 2019管理类、经济类联考中文写作批改班...

  • 2019管综写作“最后一公里”

  • 2019考研音乐史答题诀窍精讲

  • 2019考研中西方音乐史考前3小時点题班

  • 2019考研和声曲式考前3小时直播点题班

  • 2019考研中外美术史考前3小时直播点题班

  • 2019考研艺术概论考前3小时直播点题班

  • 2019考研设计概论考前3小时矗播点题班

我要回帖

更多关于 中国哲学和外国哲学 的文章

 

随机推荐