图灵测试是检验人工智能的测试标准吗

|||||||||||
最新播报:
人工智能会危及人类吗 目前无机器通过图灵测试
  近日,英国理论物理学家霍金语出惊人,预言人工智能科技如果不加控制地发展,将超越人类智能,并控制或灭绝人类。无独有偶,牛津大学哲学教授、人类未来研究所创建者博斯特罗姆近日也指出,超级人工智能是人类未来最大的存在风险,其风险性高于自然灾害、环境恶化、流行疾病。
  两位英国学者的观点是否合理?人工智能会不会发展到人类无法驾驭的超级智能阶段?记者采访了研究人工智能哲学的复旦大学哲学学院教授徐英瑾。
  徐英瑾介绍,人工智能学科缘起于一篇经典论文和一次重要会议。
  1950年,英国数学家、逻辑学家、计算机科学理论奠基人图灵在《心智》杂志发表论文《计算机器和智能》,提出了著名的“图灵测试”——如果一台机器能够与人展开对话(通过电传设备),并且会被人误以为它也是人,那么这台机器就具有智能。
  显然,这是一个带有行为主义色彩的“人工智能”定义,因为该定义没有从机器内部机制着手,而是通过其外在行为来判断它是否具有智能。其好处是,绕开了“智能的本质”这个众说纷纭的问题,给人工智能发展设定了一个目标:开发出能通过图灵测试的机器。
  1956年,一群学者在美国达特茅斯学院参加会议,探讨如何利用问世不久的计算机实现人类智能。会议筹备期间,后来获得计算机科学最高奖——图灵奖的麦卡锡提议用“Artificial Intelligence”(人工智能)一词来称呼这门新兴学科,得到了与会者认同。在这次会议上,学者们讨论了如何在人类智能水平上实现机器智能,而不是用特定算法解决一些具体问题。举个例子,IBM公司研制的“深蓝”计算机能够在与国际象棋世界冠军卡斯帕罗夫的对弈中胜出,但并不能由此认为“深蓝”拥有了超级人工智能。这是因为,它只是在某个方面的能力上超过人类,而且无法通过图灵测试。
  如果霍金担心的超级计算机有朝一日问世,那它必定在综合思维能力上超出人类,这样才可能拥有“僭越”的想法,以及控制或消灭人类的能力。
  霍金警示的风险理论上存在
  值得“庆幸”的是,目前,人工智能的全球领先水平与超级人工智能相去甚远。学术界普遍认为,世界上还没有机器能通过图灵测试。
  对于这一现状,有三种回应观点——
  第一种观点是:图灵、司马贺等人工智能学科元老提出的全面模拟人类智能的想法,太好高骛远。这种玄想或许在未来会成真,但目前为实现这个想法做研究,纯属浪费精力。业界目前应做一些踏实的人工智能研究,满足于制造解决特殊问题的求解器。徐英瑾发现,许多人工智能业内人士持这一观点。由此可见,霍金的警告有点杞人忧天的味道。
  第二种观点是:全面实现人类智能的机器是不可能造出来的,就像造不出永动机一样。学者们提出过多种论证,试图从哲学、逻辑层面论证这种不可能性,其中非常著名的有美国哲学家塞尔提出的“汉字屋论证”(也称“中文房间思想实验”)以及英国理论物理学家、数学家彭罗斯提出的“从哥德尔不完备性定理出发的论证”,但这些论证都遭到了学术界反驳。徐英瑾认为,“汉字屋论证”和彭罗斯的论证都是站不住脚的,超级人工智能并没有在理论上“被判出局”。
  第三种观点与第一种有相近之处,认为全面实现人类智能的机器是能够造出来的,但难度很大。如果当下的人工智能研究路子不改变,那么点滴成果的积累也未必能质变为全面突破。“我持这种观点。”徐英瑾说,“所以我认为霍金、博斯特罗姆警示的风险从理论上来说是存在的,但在未来相当长时间内不会成为现实。”
  大数据技术有先天缺陷
  在这位复旦学者看来,如今十分热门的大数据技术,一旦过度应用于人工智能领域,就是一条错误的路子。
  大数据技术催生了数据科学。与传统的科学研究范式不同,数据科学不再追求因果关系,而是按照“样本=总体”的思路对海量数据进行深入挖掘和统计分析,寻求各个事物间的相关性。很多时候,大数据统计出的是“2+2=3.9”这类近似结果,精确度上的略微损失,换来了对事物间相关关系的准确预测。
  徐英瑾认为,大数据分析是西方经验论哲学在当代的一种表现形式。近代西方哲学分为两大流派:经验论和唯理论。经验论认为,人的感性经验是一切知识和观念的唯一来源;唯理论与之针锋相对,认为具有普遍必然性的知识并非来自经验,而是来自人与生俱来的理性。大数据研究范式推崇海量数据的采集,那些用于数据采集的摄像头、传感器等设备好比人类感官的延伸;还推崇大样本的统计学分析,用它取代因果分析。这种看重经验采集、贬低理性推理的模式背后,正是经验论哲学观。
  就像经验论有其局限性一样,大数据分析也有局限。以基于大数据技术的“谷歌翻译”为例,这种人工智能系统的研发团队没有通过编程定义语法规则,因为完善的语法编程目前还无法实现。他们采用的主要技术方案,是利用大数据统计不断调整翻译结果的相关性,优化翻译结果。这样做的好处是,翻译系统会随着数据的积累而不断改善。但目前,使用“谷歌翻译”的结果只能帮助人们大致理解陌生语言,有时候得到的翻译结果很不通顺。“大数据翻译系统缺少深层语法结构,这种结构好比唯理论看重的先天理性,缺少了它,人工智能系统就无法译出完善的自然语言。”徐英瑾说。
  而让机器“说”出人们在日常生活中说的自然语言,正是图灵测试所要求的。在人工智能领域,“自然语言处理”占有重要地位,已发展成一个相对独立的研究领域。苹果手机的Siri、上海企业开发的小i机器人,都是应用自然语言处理技术的人工智能产品。有兴趣的读者可以对Siri和小i机器人进行图灵测试,看看它们的回答是否像人。
  让机器人服从“绝对命令”
  在好莱坞电影《梯阵阴谋》中,美国国安局设置的超级计算机Echelon(梯阵),能通过调取、分析每个公民的各类信息,进行行为监控,还可以向人们的手机发送短信,达到不可告人的目的。
  这种超级人工智能如果在未来成为现实,人类社会将毫无隐私可言。影片结尾,找到Echelon的男主角向它提问:你的宗旨是什么?Echelon的回答是“保护美国公民的自由权益”。经过一番人机对话,这台计算机“幡然悔悟”,将自身的监视程序删除了。
  博斯特罗姆认为,科幻电影和小说中常见的自毁程序桥段,并不是解除超级人工智能威胁的最佳方案。他指出,“我们并不是要永远抑制超级智能,或不开发行动自由的超级智能。”计算机程序的“动机选择问题”必须得到解决。一种解决方案是将机器的目标模糊化。例如,如果想要它帮助医生治疗某种疾病,可以将目标设为“做有利于人类健康的事”。另一种解决方案是使人工智能更人性化,为其编入同情和利他主义程序。
  这两种方案,都与科幻小说家阿西莫夫提出的“机器人三定律”相通。三条定律分别是:第一法则:机器人不得伤害人类,或坐视人类受到伤害;第二法则:除非违背第一法则,机器人必须服从人类的命令;第三法则:在不违背第一和第二法则的情况下,机器人必须保护自己。“这堪称机器人版的‘绝对命令’学说。哲学家康德提出的‘绝对命令’要求,人应该在任何情况下把自己和他人当作目的,而非手段。”徐英瑾评论道,“未来出现超级人工智能后,应将这种机器人伦理以立法形式确立下来,防止疯狂的科学家开发出旨在控制甚至毁灭人类的机器。”记者 俞陶然
  相关链接
  汉字屋论证
  一个母语是英语、对汉语一窍不通的人,呆在一间只有一个开口的封闭房间里。屋内有一本用英文写的说明汉语语法和汉字组合规则的手册,以及一大堆汉字符号。屋外的人不断向屋内递进用汉字写成的问题。屋子里的人便按照手册上的说明,将汉字符号组合成对问题的解答,并将答案递出房间。
  在这个思想实验中,屋内人相当于计算机,手册相当于计算机程序。塞尔想以此证明,正如屋内人不可能通过手册理解汉语一样,计算机不可能通过程序获得理解力,即冯·诺依曼型计算机不可能具备强人工智能。
[责任编辑:
来源:新闻热搜榜为什么人工智能(AI)如此难以预测?
[摘要]虽然“人工智能”的概念提出了将近60年,但是直到今天,我们仍然无法给出何时实现“人工智能”的准确预言。
讯 早在1956年,一群计算机领域的专家认为,他们能够在一个夏天的时间突破“人工智能”(AI)的关键技术,比如教会机器使用自然语言、形成抽象的概念、甚至能够自我提高等,但是在60年之后的今天,我们仍然在翘首以盼!为了帮助人们理解为什么“人工智能预言很难正确”,Armstrong分析了未来人类研究所图书馆中有关“人工智能”的250个预言。该图书馆最早的档案资料可回溯至1950年,当时计算机之父Alan Turing曾经预言:计算机将会在2000年通过“图灵测试”(图灵测试是指,当测试人在向被测试者随意提问,问过一些问题后,如果测试人不能确认被测试者哪个是人、哪个是机器的回答,那么这台机器就通过了测试)。后来,又有人预测2013年、2020年和2029年时机器能够通过“图灵测试”,因此Armstrong感到其中的很多预言没有任何意义,这些所谓专家的预测一点也不比哲学家预测得好。这其中重要的原因是缺乏短期内的反馈,如果一位专家能够及时得到他所预言结果的初步反馈,那么他就能不断修正预言结果,否则只能是空中楼阁,很难做出有意义的长期预言。这也反映出“人工智能”的技术难度之大,目前人类仍然无法企及。直到今天,人类大脑仍然是唯一的真正智能机器,这是经过数百万年自然进化的结果。人工智能的定义:人工智能的定义可以分为两部分,即“人工”和“智能”。“人工”比较好理解,争议性也不大。有时我们会要考虑什么是人力所能及制造的,或者人自身的智能程度有没有高到可以创造人工智能的地步,等等。但总的来说,“人工系统”就是通常意义下的人工系统。关于什么是“智能”,就问题多多了。这涉及到其它诸如意识(CONSCIOUSNESS)、自我(SELF)、思维(MIND)(包括无意识的思维(UNCONSCIOUS_MIND))等等问题。人唯一了解的智能是人本身的智能,这是普遍认同的观点。但是我们对我们自身智能的理解都非常有限,对构成人的智能的必要元素也了解有限,所以就很难定义什么是“人工”制造的“智能”了。因此人工智能的研究往往涉及对人的智能本身的研究。其它关于动物或其它人造系统的智能也普遍被认为是人工智能相关的研究课题。人工智能在计算机领域内,得到了愈加广泛的重视。并在机器人,经济政治决策,控制系统,仿真系统中得到应用。著名的美国斯坦福大学人工智能研究中心尼尔逊教授对人工智能下了这样一个定义:“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的。”而另一个美国麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”这些说法反映了人工智能学科的基本思想和基本内容。即人工智能是研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何让计算机去完成以往需要人的智力才能胜任的工作,也就是研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。人工智能是计算机学科的一个分支,二十世纪七十年代以来被称为世界三大尖端技术之一(空间技术、能源技术、人工智能)。也被认为是二十一世纪三大尖端技术(基因工程、纳米科学、人工智能)之一。这是因为近三十年来它获得了迅速的发展,在很多学科领域都获得了广泛应用,并取得了丰硕的成果,人工智能已逐步成为一个独立的分支,无论在理论和实践上都已自成一个系统。人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。人工智能将涉及到计算机科学、心理学、哲学和语言学等学科。可以说几乎是自然科学和社会科学的所有学科,其范围已远远超出了计算机科学的范畴,人工智能与思维科学的关系是实践和理论的关系,人工智能是处于思维科学的技术应用层次,是它的一个应用分支。从思维观点看,人工智能不仅限于逻辑思维,要考虑形象思维、灵感思维才能促进人工智能的突破性的发展,数学常被认为是多种学科的基础科学,数学也进入语言、思维领域,人工智能学科也必须借用数学工具,数学不仅在标准逻辑、模糊数学等范围发挥作用,数学进入人工智能学科,它们将互相促进而更快地发展。
[责任编辑:quarkqiao]
您认为这篇文章与"新一网(08008.HK)"相关度高吗?
Copyright & 1998 - 2016 Tencent. All Rights Reserved
还能输入140字5分钟阅读:知识大爆炸-《一个故意不通过图灵测试的人》-第1部分 - 简书
下载简书移动应用
写了273579字,被264人关注,获得了824个喜欢
5分钟阅读:知识大爆炸-《一个故意不通过图灵测试的人》-第1部分
这是一篇类似于KK这样大师的观点论文,看完,个人觉得非常合理但又觉得这是惊世之作,所以摘录其中一些观点。原文较长,但是墙裂推荐看下:未来学家Ray Kurzweil把这种人类的加速发展称作加速回报定律(Law of Accelerating Returns)。之所以会发生这种规律,是因为一个更加发达的社会,能够继续发展的能力也更强,发展的速度也更快——这本就是更加发达的一个标准。19世纪的人们比15世纪的人们懂得多得多,所以19世纪的人发展起来的速度自然比15世纪的人更快。如果Kurzweil等人的想法是正确的,那2030年的世界可能就能把我们吓尿了——下一个吓尿单位可能只需要十几年,而2050年的世界会变得面目全非。
1. 我们对于历史的思考是线性的 —— 预测必须基于当下的速度+想象力当我们考虑未来35年的变化时,我们参照的是过去35年发生的事情。当我们考虑21世纪能产生的变化的时候,我们参考的是20世纪发生的变化。这就好像1750年的老王觉得1500年的小李在1750年能被吓尿一样。线性思考是本能的,但是考虑未来的时候我们应该指数地思考。一个聪明人不会把过去35年的发展作为未来35年的参考,而是会看到当下的发展速度,这样预测的会更准确一点。当然这样还是不够准确,想要更准确,你要想象发展的速度会越来越快。
2. 近期的历史很可能对人产生误导 —— 当下处于新事物出现的积累期首先,即使是坡度很高的指数曲线,只要你截取的部分够短,看起来也是很线性的,就好像你截取圆周的很小一块,看上去就是和直线差不多。其次,指数增长不是平滑统一的,发展常常遵循S曲线。
3. 个人经验使得我们对于未来预期过于死板 —— 想象力的匮乏我们通过自身的经验来产生世界观,而经验把发展的速度烙印在了我们脑中——“发展就是这么个速度的。”我们还会受限于自己的想象力,因为想象力通过过去的经验来组成对未来的预测——但是我们知道的东西是不足以帮助我们预测未来的。当我们听到一个和我们经验相违背的对于未来的预测时,我们就会觉得这个预测偏了。如果我现在跟你说你可以活到150岁,250岁,甚至会永生,你是不是觉得我在扯淡——“自古以来,所有人都是会死的。”是的,过去从来没有人永生过,但是飞机发明之前也没有人坐过飞机呀!
通往超级智能之路关于人工智能的困惑:1.我们总是把人工智能和电影想到一起。2.人工智能是个很宽泛的话题。3.我们日常生活中已经每天都在使用人工智能了,只是我们没意识到而已。首先,不要一提到人工智能就想着机器人。其次,你可能听过“奇点”或者“技术奇点”这种说法。最后,人工智能的概念很宽,所以人工智能也分很多种,我们按照人工智能的实力将其分成三大类:单个方面的人工智能——弱人工智能Artificial Narrow Intelligence (ANI)、人类级别的人工智能——强人工智能Artificial General Intelligence (AGI)、各方面都比人类强万亿倍的——超人工智能Artificial Superintelligence (ASI)。我们现在的位置——充满了弱人工智能的世界。每一个弱人工智能的创新,都在给通往强人工智能和超人工智能的旅途添砖加瓦。计算机科学家Donald Knuth的说法,“人工智能已经在几乎所有需要思考的领域超过了人类,但是在那些人类和其它动物不需要思考就能完成的事情上,还差得很远。”要想达到人类级别的智能,电脑必须要理解更高深的东西,比如微小的脸部表情变化,开心、放松、满足、满意、高兴这些类似情绪间的区别,以及为什么《布达佩斯大饭店》是好电影,而《富春山居图》是烂电影。通往强人工智能的第一步:增加电脑处理速度Kurzweil认为考虑电脑的发展程度的标杆是看1000美元能买到多少cps,当1000美元能买到人脑级别的1亿亿运算能力的时候,强人工智能可能就是生活的一部分了。
按照这个速度,我们到2025年就能花1000美元买到可以和人脑运算速度抗衡的电脑了。
通往强人工智能的第二步:让电脑变得智能1)抄袭人脑科学界正在努力逆向工程人脑,来理解生物进化是怎么造出这么个神奇的东西的,乐观的估计是我们在2030年之前能够完成这个任务。一个电脑架构模拟人脑的例子就是人工神经网络。它是一个由晶体管作为“神经”组成的网络,晶体管和其它晶体管互相连接,有自己的输入、输出系统,而且什么都不知道——就像一个婴儿的大脑。更加极端的“抄袭”方式是“整脑模拟”,具体来说就是把人脑切成很薄的片,用软件来准确的组建一个3D模型,然后把这个模型装在强力的电脑上。2)模仿生物演化我们可不可以用模拟演化的方式来造强人工智能呢?这种方法叫作“基因算法”,它大概是这样的:建立一个反复运作的表现/评价过程,就好像生物通过生存这种方式来表现,并且以能否生养后代为评价一样。一组电脑将执行各种任务,最成功的将会“繁殖”,把各自的程序融合,产生新的电脑,而不成功的将会被剔除。经过多次的反复后。这个自然选择的过程将产生越来越强大的电脑。而这个方法的难点是建立一个自动化的评价和繁殖过程,使得整个流程能够自己运行。3)让电脑来解决这些问题总的思路是我们建造一个能进行两项任务的电脑——研究人工智能和修改自己的代码。这样它就不只能改进自己的架构了,我们直接把电脑变成了电脑科学家,提高电脑的智能就变成了电脑自己的任务。即使是一个和人类智能完全一样,运算速度完全一样的强人工智能,也比人类有很多优势:硬件上:速度、容量和储存空间、可靠性和持久性软件上:可编辑性,升级性,以及更多的可能性;集体能力
人工智能只会在“人类水平”这个节点做短暂的停留,然后就会开始大踏步向超人类级别的智能走去。
惊悚!智能大爆炸,请类比寒武纪的生物大爆炸递归的自我改进 —— 一个运行在特定智能水平的人工智能,比如说脑残人类水平,有自我改进的机制。当它完成一次自我改进后,它比原来更加聪明了,我们假设它到了爱因斯坦水平。而这个时候它继续进行自我改进,然而现在它有了爱因斯坦水平的智能,所以这次改进会比上面一次更加容易,效果也更好。第二次的改进使得他比爱因斯坦还要聪明很多,让它接下来的改进进步更加明显。如此反复,这个强人工智能的智能水平越长越快,直到它达到了超人工智能的水平——这就是智能爆炸,也是加速回报定律的终极表现。以下的情景很可能会发生:一个人工智能系统花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时候,电脑对于世界的感知大概和一个四岁小孩一般;而在这节点后一个小时,电脑立马推导出了统一广义相对论和量子力学的物理学理论;而在这之后一个半小时,这个强人工智能变成了超人工智能,智能达到了普通人类的17万倍。我们把130的智商叫作聪明,把85的智商叫作笨,但是我们不知道怎么形容12952的智商,人类语言中根本没这个概念。人类对于地球的统治教给我们一个道理——智能就是力量。也就是说,一个超人工智能,一旦被创造出来,将是地球有史以来最强大的东西,而所有生物,包括人类,都只能屈居其下——而这一切,有可能在未来几十年就发生。当一个超人工智能出生的时候,对我们来说就像一个全能的上帝降临地球一般。
这时候我们所关心的就是:“这是否是一个仁慈的上帝?”
点击这里查看下一篇:《》
如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!
打开微信“扫一扫”,打开网页后点击屏幕右上角分享按钮
被以下专题收入,发现更多相似内容:
玩转简书的第一步,从这个专题开始。
想上首页热门榜么?好内容想被更多人看到么?来投稿吧!如果被拒也不要灰心哦~入选文章会进一个队...
· 103108人关注
最有思想,最深刻,最有价值,最有腔调。尽在《有意思的文章》!
随便看篇好文试试:/c...
· 83303人关注
读书的心得与思考
本专题将关闭投稿通道:/p/68688beac1ad
· 34329人关注
如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!
选择支付方式:其他外文名:
The Turing test
阿兰·麦席森·图灵
图灵测试 -
图灵测试1936年,哲学家阿尔弗雷德·艾耶尔思考心灵哲学问题:我们怎么知道其他人曾有同样的体验。在《语言,真理与逻辑》中,艾尔建议有意识的人类及无意识的机器之间的区别。1950年,图灵发表了一篇划时代的论文,文中预言了创造出具有真正智能的机器的可能性。由于注意到“智能”这一概念难以确切定义,他提出了著名的图灵测试:如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么称这台机器具有智能。这一简化使得图灵能够令人信服地说明“思考的机器”是可能的。论文中还回答了对这一假说的各种常见质疑。图灵测试是人工智能哲学方面第一个严肃的提案。1952年,在一场BBC广播中,图灵谈到了一个新的具体想法:让计算机来冒充人。如果不足70%的人判对,也就是超过30%的裁判误以为在和自己说话的是人而非计算机,那就算作成功了。1956年达特茅斯会议之前,英国研究者已经探索十几年的机器人工智能研究。比率俱乐部是一个非正式的英国控制论和电子产品研究团体,成员包括阿兰·麦席森·图灵。1967年由英国哲学家费丽帕·弗特提出。铁轨上有五个小孩在玩,停用的岔轨上有一个小孩在玩,要把车转移到岔轨上压死一个孩子救下五个吗?这是一个非常典型的关于道德问题的直觉泵。1980年约翰·塞尔在《心智、大脑和程序》一文中提到的中文屋子思想实验,对图灵测试发表了批评。日,一台计算机成功让人类相信它是一个13岁的男孩,成为有史以来首台通过图灵测试的计算机。这被认为是人工智能发展的一个里程碑事件,但专家警告称,这项技术可用于网络犯罪。。
图灵测试 -
图灵提出了一种测试机器是不是具备人类智能的方法。即假设有一台电脑,其运算速度非常快、记忆容量和逻辑单元的数目也超过了人脑,而且还为这台电脑编写了许多智能化的程序,并提供了合适种类的大量数据,那么,是否就能说这台机器具有思维能力。图灵测试图灵肯定机器可以思维的,他还对智能问题从行为主义的角度给出了定义,由此提出一假想:即一个人在不接触对方的情况下,通过一种特殊的方式,和对方进行一系列的问答,如果在相当长时间内,他无法根据这些问题判断对方是人还是计算机,那么,就可以认为这个计算机具有同人相当的智力,即这台计算机是能思维的。这就是著名的“图灵测试”(Turing Testing)。当时全世界只有几台电脑,其他几乎所有计算机根本无法通过这一测试。要分辨一个想法是“自创”的思想还是精心设计的“模仿”是非常难的,任何自创思想的证据都可以被否决。图灵试图解决长久以来关于如何定义思考的哲学争论,他提出一个虽然主观但可操作的标准:如果一台电脑表现(act)、反应(react)和互相作用(interact)都和有意识的个体一样,那么它就应该被认为是有意识的。为消除人类心中的偏见,图灵设计了一种“模仿游戏”即图灵测试:远处的人类测试者在一段规定的时间内,根据两个实体对他提出的各种问题的反应来判断是人类还是电脑。通过一系列这样的测试,从电脑被误判断为人的几率就可以测出电脑智能的成功程度。图灵预言,在20世纪末,一定会有电脑通过“图灵测试”。目前为止还没有电脑通过图灵测试。美国科学家兼慈善家休·罗布纳20世纪90年代初设立人工智能年度比赛,把图灵的设想付诸实践。比赛分为金、银、铜三等奖。图灵预言,到2000年将会出现足够好的电脑,能够在不超过7成人的长达5分钟的提问中全部回答正确。成功通过图灵测试的电脑还没有,但已有电脑在测试中“骗”过了测试者。最终将会出现能够骗过大多数人的电脑吗?前几年IBM公司研制的计算机“深蓝”与国际象棋世界冠军卡斯帕罗夫进行的那场人机大战,最终以“深蓝”战胜卡斯帕罗夫而宣告结束,让我们不得不佩服图灵的天才预言。
图灵测试 -
1.图灵测试的方法是,被测试人,和一个是声称自己有人类智力的机器。测试时,测试人与被测试人是分开的,测试人只有通过一些装置(如键盘)向被测试人问一些问题,这些问题随便是什么问题都可以。问过一些问题后,如果测试人能够正确地分出谁是人谁是机器,那机器就没有通过图灵测试,如果测试人没有分出谁是机器谁是人,那这个机器就是有人类智能的。目前还没有一台机器能够通过图灵测试,也就是说,计算机的智力与人类相比还差得远呢。如果一个机器具备了“类智能”运算能力,那么通过图灵试验的时间会延长,至于多长时间合适,这是后继科研人员正在研究的问题图灵测试 2014 的举办方英国雷丁大学发布新闻稿,宣称俄罗斯人弗拉基米尔·维西罗夫(Vladimir Veselov)创立的人工智能软件尤金·古斯特曼(Eugene Goostman)通过了图灵测试。如果这一结论获得确认,那么这将是人工智能乃至于计算机史上的一个里程碑事件。2.人机测试:图灵采用“问”与“答”模式,即观察者通过控制打字机向两个测试对象通话,其中一个是人,另一个是机器。要求观察者不断提出各种问题,从而辨别回答者是人还是机器。图灵还为这项测试亲自拟定了几个示范性问题:问: 请给我写出有关“第四号桥”主题的十四行诗。答:不要问我这道题,我从来不会写诗。问:3等于多少?答:(停30秒后)105721问:你会下国际象棋吗?答:是的。问:我在我的K1处有棋子K;你仅在K6处有棋子K,在R1处有棋子R。轮到你走,你应该下哪步棋?答:(停15秒钟后)棋子R走到R8处,将军!图灵指出:“如果机器在某些现实的条件下,能够非常好地模仿人回答问题,以至提问者在相当长时间里误认它不是机器,那么机器就可以被认为是能够思维的。”从表面上看,要使机器回答按一定范围提出的问题似乎没有什么困难,可以通过编制特殊的程序来实现。然而,如果提问者并不遵循常规标准,编制回答的程序是极其困难的事情。例如,提问与回答呈现出下列状况:问:你会下国际象棋吗?答:是的。问:你会下国际象棋吗?答:是的。问:请再次回答,你会下国际象棋吗?答:是的。你多半会想到,面前的这位是一部笨机器。如果提问与回答呈现出另一种状态:问: 你会下国际象棋吗?答:是的。问:你会下国际象棋吗?答:是的,我不是已经说过了吗?问:请再次回答,你会下国际象棋吗?答:你烦不烦,干嘛老提同样的问题。那么,你面前的这位,大概是人而不是机器。上述两种对话的区别在于,第一种可明显地感到回答者是从知识库里提取简单的答案,第二种则具有分析综合的能力,回答者知道观察者在反复提出同样的问题。“图灵测试”没有规定问题的范围和提问的标准,如果想要制造出能通过试验的机器,以我们的技术水平,必须在电脑中储存人类所有可以想到的问题,储存对这些问题的所有合乎常理的回答,并且还需要理智地作出选择。
图灵测试 -
英国数学家、逻辑学家,被视为计算机科学之父。1931年,阿兰·图灵(Alan Turing)进入剑桥大学国王学院,毕业后到美国普林斯顿大学攻读博士学位。1936年,图灵向伦敦权威的数学杂志投一篇论文,题为“论数字计算在决断难题中的应用”。在这篇开创性的论文中,图灵给“可计算性”下了一个严格的数学定义,并提出著名的“图灵机”(Turing Machine)的设想。“图灵机”不是一种具体的机器,而是一种思想模型,可制造一种十分简单但运算能力极强的计算装置,用来计算所有能想象得到的可计算函数。“图灵机”与“冯·诺伊曼机”齐名,被永远载入计算机的发展史中。1950年10月,图灵又发表另一篇题为“机器能思考吗”的论文,成为划时代之作。也正是这篇文章,为图灵赢得了“人工智能之父”的桂冠。图灵还进一步预测称,到2000年,人类应该可以用10GB的计算机设备,制造出可以在5分钟的问答中骗过30%成年人的人工智能。
图灵测试 -
现代计算机之父冯·诺依曼生前曾多次谦虚地说:如果不考虑查尔斯·巴贝奇[v]等人早先提出的有关思想,现代计算机的概念当属于阿兰·图灵。冯·诺依曼能把“计算机之父”的桂冠戴在比自己小10岁的图灵头上,足见图灵对计算机科学影响之巨大。雷丁大学的客座教授Kevin Warwick说,尽管此前曾有人声称图灵测试已经得到通过,但是相比之下,这次活动的标准是最为严格的,没有对问题做任何预设。因此,他们自豪地宣布图灵测试首次获得通过。
万方数据期刊论文
万方数据期刊论文
计算机工程
万方数据期刊论文
计算机研究与发展
为本词条添加和相关影像
互动百科的词条(含所附图片)系由网友上传,如果涉嫌侵权,请与客服联系,我们将按照法律之相关规定及时进行处理。未经许可,禁止商业网站等复制、抓取本站内容;合理使用者,请注明来源于。
登录后使用互动百科的服务,将会得到个性化的提示和帮助,还有机会和专业认证智愿者沟通。
您也可以使用以下网站账号登录:
此词条还可添加&
编辑次数:20次
参与编辑人数:14位
最近更新时间: 07:42:27
贡献光荣榜
扫描二维码用手机浏览词条
保存二维码可印刷到宣传品
扫描二维码用手机浏览词条
保存二维码可印刷到宣传品

我要回帖

更多关于 光年图灵人工智能 的文章

 

随机推荐