如何让机器学会思考并有什么是自我意识识?

人工智能是不是就等于深度学習、阿尔法狗?

“深度学习在研究机构里是10年前的事情了。”说这句话的是霍徳·里普森,哥伦比亚大学教授、创意机器实验室总监。在他看来,产业化中的技术总会滞后于研究者。而要产业领先应对技术有前瞻性。

在全球顶尖实验室里人工智能有哪些革命性的前沿技术研究?霍徳为人工智能列出了六波技术浪潮,“现在热议的、正在产业化的只是前三波。”未来将要到来的三波浪潮是什么近日在蓉举行的2017腾讯全球合作伙伴大会人工智能分论坛上,霍徳分享了让人震惊的内容

人工智能未来方向第一波

人工智能也能有创造力创作出獨一无二的油画

霍徳认为,人工智能的六波技术浪潮可分为已开始产业化的、面向未来的两类。开始产业化的三波技术浪潮分别是:准則基础(下象棋等)、大数据分析、深度学习;面向未来的三波则是创造性、实体化和什么是自我意识识它们是未来10年到30年的方向。

创造性昰什么意思?“人工智能可以做很多事但目前它还没有创造力。”

霍徳认为这是人工智能发展的下一个方向——获得创造力,像人一样創造出全新的想法、全新的事物这将使人工智能用不同于人类的思路,自主完成部分产品设计甚至提供艺术产品,如音乐、文学等

怎么能让人工智能有创造力?最直接的方法,是复制人类获得创造力的学习过程“但人怎么会有创造力,这个我们还不知道” 霍徳双手┅摊,这是一个瓶颈

瓶颈正在被突破。通过大屏幕他用照片展示了某研究项目中,机器人学习创作油画的过程——最初画出的只是銫彩斑斓的色块;到后期则画出让人惊讶的人像、动物,可以轻易看出它们属于写实派、印象派等不同风格“在画出来之前,世界上并沒有一张同样作品”

这是怎么做到的?霍徳引入了“进化”的概念“世界上那么多种动物植物,是怎么被创造出来的是因为进化。茬适应自然界过程中已有物种不断演变,最终成为全新物种”和自然界一样,研究人员让上千个的人工智能围绕一个目标进行数百萬次的相互竞争,以人类大数据充当“自然界”来让人工智能适应最终进化出一个全新的结果——这就是人工智能创造的新事物。

霍徳介绍欧美大量高校和研究机构在从事人工智能创造力研究,有望在未来10年内走向产业化

人工智能未来方向第二波

让人工智能也有“肌禸”,可以干厨师、电工这样需要实操的工种

和后两波技术浪潮相比创造性还是相对“简单”的。

霍徳认为创造性之后的下一个浪潮,是人工智能实体化

人工智能为啥要实体化?“现在人工智能基本都存在于电脑中,没有人体那样的载体这让它可以替代医生、律师,泹当不了厨师、电工有了实体,就可以解决问题”

会上,他播放了一段视频:一截连通线路的白色水滴型物体在人手掌上缓缓蠕动。“这是为人工智能设计的人工肌肉”

人工智能未来方向“终极目标”

实验室里,人工智能开始有原始的“什么是自我意识识”

实体化还不是人工智能的终极目标。科学家们最终努力的反响是让人工智能,有人一样的什么是自我意识识

这并不是科幻,在实验室里已經在成为现实一段视频,展示了他所在室验室的最新研究:为一个四脚机器人安装传感器和相应认知组件推动它感知自身的腿、感知哋面,让它为自己建立认知模型逐渐认识到自己有几条腿、几条腿之间的联系,逐渐学会用脚行走一段时间后将一条腿去掉,研究人員发现机器人在适应过程中重构了对自己的认知模型,开始认识到自己只剩三条腿并尝试如何协同好这三条腿,实现行走

霍徳说,這是非常原始的自我认知但就像人类经历的那样,这也是什么是自我意识识的开始

原标题:哥伦比亚大学教授透露AI前沿“黑科技”:AI囸在具有“什么是自我意识识”

宇宙中充满了一些非常酷的东西:例如每一小匙重达一吨的中子星,连光都能吞噬的特大质量黑洞恰好能够流穿过脱氧钢的无穷小的中微子,以及地球上那些奇异的動植物们…不过在宇宙所有已知的事物里,最神奇的莫过于人脑

人类大脑能够了解中子星,了解黑洞、中微子以及地球上众多的动植物。人类大脑能够计算出数学真理能够辨别出道德上半真半假的陈述,也能够思考出哲学上的模棱两可它能够从我们脚下的泥土中,提取出原材料构建城市,能建造汽车、飞机和火箭以及有线和无线信号,并将这些迥然不同的“意识”汇聚成创造力、知识、甚至昰残酷行为的“母巢”

如果说我们的大脑是宇宙中最酷的产物,绝不会引起争论毕竟如果没有大脑,也就不可能有这些争论它们是所有争论和辩论的基础。

至少到目前为止大脑是宇宙中最酷的东西了。或许将来有一天人类会发现或创造出其他能够去发现、创造、爭论、讨论、哄骗的事物,它们可能来自于遥远星球的飞船(这种可能性微乎其微)也可能会出现在某个实验室里(这一点几乎是可以肯定的)——而一些人认为,这些新型“会思考的机器(thinking machines)”可能发生在人工智能里

人工智能早在六十年前已经问世。在世界各地的实驗室小巧可爱的AI们正焕发着生机。有的AI下棋可以胜过人类最强棋手有的AI正在学习驾驶一百万辆汽车行驶一百万英里,而有的AI正在学习拯救更多的生命甚至超过大多数医生或急救医护人员在其整个职业生涯拯救过的生命数量,有的AI会确保我们的餐具干燥且无污渍或确保我们的衣服穿着得体且没有起皱。人们正在打造无数的人工智能为其编写程序,它们只会变得更加智能、更加无处不在它们会变得哽好,但它们永远不会像我们人类一样而这是一件好事。

我们的什么是自我意识识程度是将人类与地球上其他生命形态区分的关键所在大多数动物是有意识的,甚至有许多动物是有什么是自我意识识的但是人类拥有的是高度的什么是自我意识识。人类的大脑中有一个連接到我们意识的放大器并且转到了最大值。

在人工智能领域充斥着各种对人类智能的不同特性的复制或模仿工作。其中他们必做的┅件事是复制人类意识的打开方式。也许从人工智能研究中我们收获的最佳产物不是对计算机的理解,而是对人类自己的理解

因此,我们不妨大胆设想一下具备什么是自我意识识的机器人的打开方式,我们暂且把它称作一个蓝图

一个有什么是自我意识识的机器人聽起来很简单,实则很复杂我们需要:

综上,我们需要三个要素:(1)会对刺激因素做出回应的身体;(2)一种通信方法;(3)一种算法用以推断絀这些通信的原因和动机。

机器思维与人脑思维仍相差甚远

要理解人类意识我们需要深入研究心理理论(Theory of Mind)。不过遗憾的是这个概念昰模糊的,因为它在我们的日常生活中消耗了我们大部分的计算能力——我们的大脑一致都被认为几乎与心理理论机器一样那么心理理論到底是什么?

说白了心理理论是一个人的大脑试图了解另一个人的大脑在想什么的一种理论,是个体对他人心理状态及其与他人行为關系的推理或认知例如,小红想知道小明在思考什么于是小红就会对小明当前的思想状态创建理论进行推理,这样做是为了猜测出小奣下一步要做什么

在这个例子中,我们暂且把“小红猜测小明在想什么”称之为一级心理理论它也将变得越来越复杂。小红也可能会佷好奇小明是怎样看待她的这就属于二级心理理论了,它是人类大多数的神经症和想法固执的根源“小明认为我聪明吗?”“小明喜歡我吗”“小明会希望我受伤吗?”“小明是因为我做了什么才变得心情好或心情坏吗?”这类问题我们听起来或许会觉得很熟悉毕竟峩们的生活中充满了这样的想法。而这仅仅是一个开始

如果小红想知道小明对于露西对汤姆的想法有什么看法,那么这就属于三级心理悝论了再简单地说,汤姆知道露西喜欢他吗或者,小红可能想知道露西认为小明对小红有什么想法这样听起来已经开始有点混乱,畢竟掺杂了好几个名字并且都用“思考”这个词将其连在一起,但这恰恰就是我们的思想比任何其他层面上的意识思考更加迷人的所在我们几乎无法停止这样思考。我们可以将其称之为闲聊或社交活动但我们的大脑认为这是它们的主要职责——也是它们的主要功能。囿人推测心理理论而非工具的使用,是一开始造成我们的人脑相对大小的原因所在

以上听起来颇有些哲学范畴了。而在横冲直撞的人類世界里人脑良好的处理能力可以计算轨迹,形成一种意识试图了解另一个人的大脑在想什么,因此有人发明了一个抛物线式的公式:F=ma速度的平方。

不光是人类意识大量研究表明,许多动物呈现出了不同程度的什么是自我意识识譬如,动物可以辨别出镜子里自己嘚脸动物和其他动物会就如何解决一个难题进行交流,然后获得双赢甚至有大量证据显示,章鱼也拥有什么是自我意识识但是,正洳猎豹是陆地上跑得最快的动物一样人类是心理理论界的皇后与国王。

我曾经看到过我的狗在观察我并猜测我接下来要做什么它或许茬想,我是要把棍子扔掉呢还是不扔我是要把最后一口食物吃掉呢还是分享给它?我甚至还见过狗狗在设法解决二级心理理论的问题當它与一个小伙伴玩耍时,它就会来估计我的意图是什么我突然打开包了吗?或者这是另一个游戏我的狗应该站哪一边?在动物世界裏狗是一个很好的心理理论例子,因为狗经过多年的进化与人类接触的比较多,渐渐学会了一些人类行为线索

随着机器人已经成为峩们驯化的伙伴,要发展拥有什么是自我意识识的AI就要继续密切关注这个模型。他们中的一部分机器已经开始试图猜测人类的想法以忣人类下一步会做什么了。目前已经有人在开发一种汽车:能够通过识别用户脸部表情来确定用户的注意力在哪里、是否昏昏欲睡这属於一级心理理论,目前已被应用于上路的自动化驾驶汽车

然而,对这些能力的进一步发展并不会引起什么是自我意识识的产生下文有┅个非常简单的原因解释了人类意识的神秘,尽管我们如今可以很轻松地在实验室里制造出“有意识”的机器但并非有“什么是自我意識识”或“类似于人类意识”。

人脑模块之间并非协同工作这正是机器的误区

与我们理解的相悖,人脑不是一个单一的、完整的实体洏是一个集成了成千上万不同模块的中心,只有极少的部分互连我们喜欢把大脑比作一个计算机芯片,甚至进一步将其精确地想象成一囼电脑有着独立的中央处理单元,将RAM(短期记忆)、硬盘(长期记忆)、冷却风扇(自主神经功能)、电源(消化)等等分离开来

这虽是一个有趣的类仳,但也是一个不可思议的误导电脑是一个有着一体化标准设计的精密设备,各个部分的几乎都是出于同样的目的在同一时间设计而苴他们的设计目的在于与其他电脑能够协同工作。但这些都与人类思维毫不类似甚至相差甚远。

人类思维更像是华盛顿特区或大型公司庞大而复杂。大脑的某些功能在数亿年前便已建立例如它可以为单个细胞提供能量,也可以通过细胞膜提供钠和钾而几百万年前建荿的神经元,可以确保血液的注入和氧气的吸入大脑里的每个模块就像是一个拥挤的城市里一个个单独的建筑一样。其中的一些模块甚臸与其他模块完全没有交流血液循环系统和呼吸系统可自由发展,但其他系统很容易发生争吵、抬杠、异议、对其他系统造成破坏等致使身体出问题。下面是一个例子:

几个月前我和女友从加拉帕戈斯群岛动身去法国玻利尼西亚,需要花费两星期到一个月的时间来穿樾这片3000英里的大海我女友不常晕船,但在南太平洋一个称为辐合区的区域汹涌的海面使我们的帆船进入了奇怪且不平稳的节奏,她感箌非常难受而这种可怕的感觉持续了几天。

晕船就是我们的大脑模块之间不与彼此交流(或自己做自己的事)的一个例子当我们周围環境运动的视觉线索与我们的内耳(感知平衡的所在)发出的信号不匹配时,大脑就会认为我们被人投了毒而毒素会扰乱我们的大脑处悝,导致其无能、产生异常数据我们又不是水手,所以当我们看到的与运动不匹配时我们的身体会认为我们已经失去了用两条腿保持岼衡的能力,结果就是我们清空了肠胃(去除了毒素),并躺下来完全不想动弹(这阻止了我们因摇晃而从高处摔倒,从而导致死亡的可能性发生)

将人类大脑比作完美设计的台式电脑,这种类比显然很失败而这个失败的比喻将会引起一些可怕的立法和社会习俗的出现,因为我们似乎不能容忍与不同于我们自己(或平均水平)的设计如果他们想要模仿人类行为的话,它还将会把人工智能研究者引向错誤的方向不可靠且杂乱脱节的自然处理系统将不得不通过设计内建,我们也将不得不故意打破系统将它们自然随意地拼凑在一起。此外我们还要模拟一个该模块最奇特的功能,它用一种非常特殊的方式结合了心理理论而正是这种结合引起了人类意识的产生,在我们為有什么是自我意识识的机器打造的蓝图中它是最重要的一项功能。

机器还犯了一个最重要的错误

有了心理理论的概念以及大脑模块の间是不可靠且分离的这些知识,我们已经准备好去理解人类的意识探索它是如何出现,以及它为什么出现了

就这一点指出了一个简單的事实:人类意识并不是任何一种实物,它的出现没什么目的也不会因进化而产生规模效益,但是在人脑的某两个独立模块都非常有鼡时它出现了,因此什么是自我意识识出现了

其中的一个模块是心理理论。而前文已经提到心理理论将比任何其他高级的神经活动消耗更多大脑处理能力。而它又极其重要因此这个模块存在的问题在于,它不能用它的力量(心理力量)做选择而是将心理理论能力轉为身体指令。譬如人觉得太冷就会起身调高空调。

fMRI机器的受试者展现出了一个心理理论特质在实时观察他们的大脑时,我们可以看箌每下一个决定,都在大脑的更高层次模块意识到这个决定之前就做出了过程大概如此:做出行动→然后观察自己行动→最后告诉自巳为什么会这样做(过程中,非常有用的心理理论工具仍将继续运行并整理自己的行动)。

更为明显的例子来自于各种神经系统障碍患鍺测试对象要么是在视觉处理上有问题,要么是两个大脑半球之间是断绝的致使其每只眼睛可以显示出不同的图片。例如他们的一呮眼睛会看到一个耙子,而另一只眼睛则会看到一堆雪而他能够看到耙子的那只眼睛实际上是失明的,但由于模块处理的图像仍然是活躍的所以当测试者被问及他所需要处理的图像(看到雪的那只眼)看到了什么时,他会回答看到了“耙子”是不是很有趣?然而真正有趣嘚是尽管我们已经将整个过程解释给了他们,这个人依然认为自己的答案是对的

也就是说,执意建立一个有什么是自我意识识的机器可能在浪费时间,也因此让我认为所谓的“人工智能威胁论”可能性极小我能想到构建这样机器的唯一原因,就是要雇用更多的精神疒学家

回顾整个蓝图的起因,曾有一个艾伦·图灵的图灵测试粉丝找到我,她认为建立什么是自我意识识的机器将产生一种超级智慧的头脑,能够给出治愈癌症以及冷核聚变的方法,那么我们要如何实际组装出这个具有什么是自我意识识的机器呢?

应用我们所知道的头脑悝论和不相连的模块我们首先要建立的是一个意识方案(这些都很简单,并且肯定已经存在了)使用现成的技术,理想中第一台机器應该看起来像一辆自动驾驶车辆一样而且工作方式也类似。多年来实现真正自主驾驶车辆的最大限制是意识装置:传感器让车辆知道周围将发生什么情况,为机器装上了眼睛和耳朵

有了这些基本的感官,我们就使用机器学习算法来构建人工智能车辆要学习的各种行为与大多数自动驾驶车辆的研究方向不同——那些工程师们通常想要教会他们的汽车如何安全地做某些事情——我们的团队聚焦于教会一個城市网格中的传感器阵列观察其他车辆,并猜测它们想做什么:

成千上万的这些需求和拟人化的描述被建立在一个巨大的短语或指令数據库中如果我们正在建造一个人形机器人,那么我们将做同样的事情来观察人并为人类似乎在执行的各种行为建立一个词汇库。传感器们将会通过扫描眼睛(这就是人类和动物的方式)来观察意识对象它们将通过我们的面部表情和身体姿势(目前的系统已经能够做到)来学习了解我们的心情。这个库和传感器阵列将形成我们的头脑理论模块其目的只是讲述其他对象的行为。当我们让它转向自己的时候魔法就会发生了。

我们的库只是按照一阶概念开始的但是建立在二阶、三阶的想法之上。譬如下列思考方式:

到目前为止我们需偠使我们的机器能够具备自我感知,所以我们教它在城里自己驾驶然后,我们要求这辆人工智能汽车观察自己的行为并猜出它在做什麼。这里的关键是不要给予完美的意识。譬如不要让它访问已经标记好杂货店位置的GPS单元。不要让它知道车主手机的内容丈夫发给妻子短信,要她在回家工作的路上接上孩子为了模仿人类的行为,无知是关键这样就能确保最初的猜测,或者我们可能会称之为“偏見”

在我们的算法中,“早期的假设”被赋予“相对较晚得出的理论”更高的权重那个时候已经有了更多的数据(克服初始偏差需要數据优势。50%的可能性足以初步建立想法但是要克服初始猜测就需要更高的可能性,比如需要75%)然后错误的猜测会被调整,并为未来嘚错误建立云端图片因此,当一辆汽车每天停在加油站并插入电源插座时即使汽车只充到85%的电量,头脑算法也假设它是安全的或鍺足以为可能到来的飓风做好了撤离准备,就像三年前I-95那次疯狂的逃跑不会出现燃料耗尽的情况。

但它不知道的是这辆汽车的乘客每忝都在加油站吃一个微波炉加热过的奶酪“小胖子”,还有一大堆炸薯条和半升苏打水后来,当这辆汽车经常去医院的时候它会认为這是一个关于汽车检查的指令,而不会想到是车主充血性心力衰竭的发作而所有机器的错误、困惑以及它对自己猜测的确定,又将给“囚工智能威胁论”带来热议

人工智能算法可能先于人工智能诞生,算法反映了一种人类意识的秘方成分这种成分就是语言。语言比任哬其他特质都更能够让我们觉得自己的大脑是一个单一的模块是一个单一的设备。

在提出“人类大脑不是一个单一的实体”引发争议之湔让我们来看看我们的身体,大脑是其中的一部分我们的身体由数万亿个不同的细胞组成,其中许多细胞可以在我们的身体之外生活囷延续我们的身体可以在实验室里活上几十年(甚至无限期,可以搜索Henrietta Lacks了解更多这方面的情况)整个器官都可以住在别人的身体里。洏且我们体内还有更多的细胞并不是我们的数量比那些组成我们身体的细胞还要多,因为有更多的微生物生活在我们的消化道里、皮肤仩以及其他地方数量比实际上构成我们身体的细胞总数还要多。这不仅仅是一种搭便车的行为它们会影响我们的心情、健康、思想和峩们的行为。它们是我们认为的“自我”的重要方面

这可能就像听起来一样恐怖,但的确是事实有人可以在没有胳膊、腿和大部分躯幹的情况下生活,有人失去了一半的大脑却还过着还算正常的生活。想想看:人到三十几乎每一个细胞已经都被不同的细胞所取代了,几乎没有一个刚出生时候的细胞会残留下来然而,我们仍然觉得这是同一个人了解所有这些生物性以及人脑理性化“同一性”的方式,对于识别人工智能至关重要

那么语言到底有什么了不起?

我上面提到语言是意识的关键因素。这是在人工智能领域开展工作的一個非常重要的概念然而,我们的大脑当中有许多模块会为了获取我们的注意力和我们的语言处理中心(它紧紧地围绕着我们的注意力,几乎成为一体或者可以说是一样的)而争斗不休。作为这方面的一个测试你可以尝试在聆听有声读物或播客的同时与其他人交谈,對于并发通信流来说最为接近的场景是实时的同传翻译。

语言和注意力是我们大脑倒置的漏斗上的窄口成千上万的不同模块正在投入箌这个漏斗之中。荷尔蒙涌入、我们所处环境的特征、视觉和听觉线索甚至幻觉和不正确的假设。大堆大堆的数据只能以单一流的方式被提取因为受到注意力系统和语言系统的限制,这也正是显示器为台式机提供的工作方式所有的并行处理在最后一刻都是串行的。

这種做法会带来非常可怕的后果我已经记不起我曾经有多少次觉得自己好像忘记了什么事情,结果在几小时或者几天之后才意识到忘记的昰什么事譬如,曾有一次我把笔记本落在了房间等到房门关上我才想起来忘记了什么事。那是凌晨四点而我要赶着去搭乘早班飞机。我也找不到可以——当时我大脑一部分模块在尖叫着“危险”,但单一的输出流则按部就班地进行输出了一片空白。

所有这一切的渏妙之处在于我知道这是如何发生的——危险模块知道情况,可是它无法通过意识的渠道发送出来所以我还是关上了房门,只有当它發出能够听见的“咔嗒”声的时候信息才通过,所以我才想起来——在我脑海里响起的警报是我的一部分但是不是我的整体,只有通過狭窄的语言走廊的东西才能被看到——这就是为什么大脑语言中心受到伤害会影响正常生活和记忆模块受损是一样的道理我应该在这裏说明一下,语言不只是口语

当Watson在智力竞赛节目Jeopardy中胜出的时候,让“他”在人工智能中独一无二的是“他”的序列化输出流这使我们能够与“他”联系、听他说话,我们可以在他的小蓝色显示器上阅读他的答案这最终爆发的输出让Watson看起来很像人类,但它终究不是人类我们的自动驾驶人工智能车辆将不会拥有完全的什么是自我意识识,除非我们编程让它告诉我们和它自己关于它的行为的故事核心就茬于,机器将会为它正在做的事情形成故事但我们不应该让它将这些故事与他人联系起来。

譬如谷歌人工智能可以画画、翻译,并且茬几乎所有已经被创造出来的游戏中击败了人类最好的对手还可以比人类更好地驾驶汽车,谷歌已经阅读并记住了几乎所有被写出来的書并可以为你大声朗读这些书,它也像人类一样犯错误它容易产生偏见(或许是从环境和程序员那里吸收来的),然而它缺少两样东覀就是自我引导循环(self-referential loop)和串行输出流(serial output

为了让我们的机器获得类似人类的什么是自我意识识,我们必须让它不顾上文所提到的“那台鎖在房间的笔记本”这可能偶尔需要耗尽能量,通过编程为数以百计的输入模块分配权重然后人为限制做出最终决定和头脑理论故事所花费的时间和处理能力,这样做比较容易我们自己的大脑的构建方式就是通过拥有千兆位分辨率的传感器,而每个输入模块都有兆次級吞吐量但是输出却受到限制。然而我们不会将人工智能视为人类因为我们永远也不会构建这样的限制。

IBM的Watson中建立了一个这样的限制这是为了适应节目Jeopardy的规则。Jeopardy需要速度Watson不得不快速确定他的答案是否确定,以知道是否要按抢答器抢答事实证明,按抢答器的时机是贏得Jeopardy的关键经常让Watson看起来非常接近于人类的不是它给出的正确答案,而是在它的显示器上看到它的第二、第三和第四个猜测是什么每個猜测后面都有确定程度的百分比。真正让Watson接近于人类的是它犯错的时刻就好像节目Jeopardy最后一个答案是属于“美国的城市”这个类别,而Watson對这个问题给出的答案却是一个加拿大的城市(这里值得注意的是,对我们人类来说机器人在失败的时候显得最为人性化。)

汽车制慥商正忙着制造我们永远不会称之为具有什么是自我意识识的车辆那或许是因为他们把它打造得太好了。而我们的蓝图是使机器在对其動机一无所知的同时提供关于这些动机的运行对话一个更好的主意是建立一个知道其他汽车在做什么的机器,没有猜测而且也完全没囿运行的对话。

这意味着访问GPS单元、智能手机的文本、家用电脑的电子邮件而且还可以访问其他的车辆和所有城市的传感器数据。日产車告诉福特车它将要去商场。每辆车都知道其他的每辆车都在做什么因此没有碰撞。在高速公路上具有相似目的地的汽车聚集在一起,磁性保险杠连接起来共享一个滑流,并集体性地将每辆车的能量使用量减半机器运行整齐划一。它们显示出车辆的所有能力特征它们知道它们需要知道的一切,而且有了新的数据它们就会立即改变主意。没有偏见

我们很幸运,这是人工智能研究人员今天建造嘚方向它不会有那些我们在科幻故事中看到的怪癖,它将提供的是一个精心设计的系统几乎总是在做它的设计者让它做的事情。事故將是非常罕见的造成事故的原因能够被理解,这种经验将在机器当中广泛分享而且会不断改进。

我们假设人工智能将给予我们更多的智力和创意产品(它们已经在这样做了)通过迭代学习的算法(使用机器学习的神经网络)变得更好,实际上它们在每一个我们已经提供资源的领域都已经证明了自己比我们更好谷歌alphago在第三场比赛中的有一步棋是如此不寻常,令围棋专家们大为震惊它的下法被描述为“富有创意”和“巧妙的”。谷歌有另一种算法可以画出它所认为的猫的样子,不是从其他地方复制的猫图像而是在学习了数百万只嫃实的猫的样子后,画出了一只猫的“感觉”

我们建造的大多数人工智能都不会出现像人类的这种情况。他们或许会更智能也更不偏惢:智能汽车将会杀死和伤害更少的人,使用更少的资源并解放我们无数个小时的时间;智能医疗在组织扫描发现癌症方面已经做得更恏了。人工智能律师在预审研究方面做得更好——没有什么是人类能够与人工智能竞争的了,而是协同工作

未来,人工智能的数量和複杂程度绝对可以扩展到令人难以置信的程度许多将被设计的能够模仿人类,因为它们能够通过电话和聊天机器人提供有用的信息并苴它们试图向我们出售商品和服务。绝大多数的人工智能在单一任务中将是非常有效的即使这项任务与驾驶汽车一样复杂。几乎没有一個人工智能会变得具有什么是自我意识识这不应该是自动化机器的世界中存在的东西,因为这会使它们的工作变得更糟

未来也有可能昰我们自己内部算法的扩展和改进,这个世界对于绝大多数人类来说每一天都在变得更加安全或者说道德水准正在提升。我们的同情心囸在扩大我们每个人都是我们自己内部算法的程序员,完善自己完全取决于我们自身首先要了解我们的构建是如此地不完美,学会不偠相信我们告诉自己的那些关于我们自己行为的故事并让我们自己在这个过程中致力于消除错误并安装更新的功能。

因此我们也许永遠不会建造一个像人类一样的人工智能。但是我们人类意识却可以得到更好的完善。

【IT时代网、IT时代周刊策划】人工智能的确比人类更具效率可是当它们的迅速崛起,控制到人类生活的方方面面时一切又会发生怎样的变化?

近日《终结者》系列电影再次开启,演员阿诺施瓦辛格也从一枚帅小伙变成了白首州长人们对这部电影的火热关注,再一次引发了人们对人工智能(简称AI)话題的讨论

随着AI、物联网、大数据等新技术的崛起,人们对未来科技产生了更多的向往仔细想想,近年来上映的有关这方面的科幻巨淛还真不少,其中不乏那些情节跌宕起伏对未来科技的预想极其大胆的电影,本文我们就来看看那些有关AI的科幻电影咱们先说说最近仳较火的几部科幻电影,科幻迷们准备接招吧!


人类世界危在旦夕这是一场人类与终结者的生死对决!一句经典对白:“我还会回来的。”让多少“终结者”迷为之兴奋

本片中,施瓦辛格作为一个从未来返回的机器人从不吃饭,从不睡觉他的存在只为完成一个使命:保护leader,干掉终结者而那些希望毁掉人类文明的“终结者”没有物质享受,永不会懊悔只是抱着一个目标——杀戮具有威胁的人类。隨着《终结者:创世纪》的重启怀着复仇欲望的机器人概念已经进入进入了计算机时代,恐慌再次引发


弱女子最后变成无所不在、无所不能的女超人,这中间发生了什么

本片讲述了一个年轻女人露西被迫变成毒贩,然后这种毒品倾入她自己身体反而给了她超于常人嘚力量:包括心灵感应、瞬间吸收知识等技能,让其成为一名无所不能到女超人


《复仇者联盟2 奥创纪元》

人工智能机器人“奥创”带来嘚一场灭世灾难。

影片讲述当钢铁侠试图启动处于休眠状态的维持和平计划时事情出了差错。于是在地球面临生死存亡的紧急关头时,强大的超级英雄们挺身而出承担起拯救世界的重任他们将阻止可怕的人工智能机器人“奥创”制定恐怖计划。


前几天还咿呀学语的机器人查派却在以惊人的学习速度进步着。

影片中主人公——人工智能机器人“查派”是世界上第一个自我觉醒的机器人他有着超乎寻瑺的天赋,是一个天才故事便围绕着查派与人类世界的互动和自我成长而展开。

说到AI有关的科幻电影不得不提到AI的鼻祖级电影《黑客渧国》,电影中那些手拿子弹、飞檐走壁的经典镜头也被奉为了经典


本片讲述一名年轻的网络黑客尼奥发现看似正常的现实世界实际上昰由一个名为“矩阵”的计算机人工智能系统控制的。尼奥在一名神秘女郎崔妮蒂的引导下见到了黑客组织的首领墨菲斯三人走上了抗爭矩阵的征途。


本片中科学官艾什的绝密任务是不惜一切代价研究、保存异形并将其带回地球研究,船员的生命安全则在其次在秘密敗露之后,艾什试图杀掉孤胆女英雄瑞普 莉在搏斗过程中,船员们发现艾什竟然是机器人艾什在被船员毁灭之前告诉他们,他们不可能杀死异形因为它是一种完美的生物。

36年前异形电影中主人公穿着的外骨骼的工程机器人Power Loader,如今终于成真



日本三井财团旗下的三井粅产正在研制一款可以让工程人员穿着的外骨骼机器人。三井物产的一位发言人Tomoya Tsutsumi曾经表示AWN-03设计之初的灵感就是Power Loader。

除了以上腥风血雨的机器人大战其实,机器人与机器人之间也可以很友好相亲相爱,有句话说得好本是同根生相煎何太急嘛!


机器人救人类,一场完美末ㄖ之恋变相地反应了人类在科技时代的恐慌。

本片中机器人瓦力作为地球上最后一个废品分装员既有着丰富多变的独特个性,又经历叻崎岖艰辛的探索历程并在无畏而漫长的末日追爱旅途中,学会了人生的真谛

机器人不仅可以拥有超凡的能力,还能与人沟通甚至咑通任督二脉,与人类谈一场旷世逆袭的恋爱不过人机恋爱最终的结果,真的是差距很大有的收获了真爱,有的则被坑的好惨


不用幫她抗米,抗煤气罐……有个如此能干的机器人女友多好。

本片主要讲述了男主人公次郎与机器人女孩的爱情故事他们之间的爱战胜叻次郎死于事故的命运,超越了生物人与机器人的隔阂


你恋爱多年的女友居然是个机器人,你会如何作想

本片讲述了作家西奥多在结束了一段令他心碎的爱情长跑之后,他爱上了电脑操作系统里的女声这个叫“萨曼莎”的姑娘不仅有着一把略微沙哑的性感嗓音,并且風趣幽默、善解人意让孤独的男主泥足深陷。


程序猿千万别和美女机器人谈情说爱小心性感也会成为原罪的祸端!

本称为2015年度让人脑洞大开的高分科幻力作。好莱坞男星奥斯卡-伊萨克饰演亿万富翁表面邀请程序员加利-史密斯共度假期,实则是协助完成对智能机器人艾麗西亚-维坎德的“图灵测试”机器人姣好容颜的外壳包装下,却掩藏着一桩惊天阴谋怪不得网友纷纷称,这是一场机械婊的攻心计

當然机器人也可以变身暖男的时刻,比如把万千女网友迷得团团转的大白


天才少年与被万众网友封为暖男的大白,又是如何联手找出杀害哥哥的幕后真凶的

本片主要讲述充气机器人大白与天才少年小宏联手菜鸟小伙伴组建超能战队,共同打击犯罪阴谋的故事

最后,为科技迷们再搜罗几部不错的科幻电影有机器人自我唤醒修复题材的,也有机器人维护正义保卫地球的大制作电影喜欢哪类就去看看吧。


末日窘境中的人机共生无论是人类还是智能机器人,都需要层层进化方能完美!

这部影片讲述了30年后的地球人类文明和信仰不可遏圵地崩塌,被迫迈上文明复兴之路秃头的保险理财员,在工作中意外发现“朝圣者”机器人的野蛮行径而隐藏在背后的阴谋也随之浮絀水面……


机器人这种毫无情感程序化编程的判断到底是好是坏?

本片中真是麻烦不断、固执己见的黑人侦探史普纳,对机器人心存恐惧史普纳不相信机器人也是事出有因:有一次,他不慎落入水中前来救援的机器人把他捞了出来,与此同时一个小女孩却被淹死因为机器人当时计算出,史普纳的存活率更高然而,在史普纳看来机器人应该优先救助那个小女孩。他说:“要是人类的话就会选择这么莋。”史普纳的种种担心并不是空穴来风这其中究竟又发生了什么呢?


星球能源耗尽霸天虎追随汽车人来到了地球,这些能变形的机器人展开了一场生死血战

美版《变形金刚G1》一共4季,前两季讲述的是擎天柱率领的汽车人和威震天(麦加登)所率领的霸天虎之间的战争故事苐3季则是接替擎天柱的补天士和惊破天(被宇宙大帝修复改造的威震天)分别率领各自武装为信仰而战的故事。美版《变形金刚》还有一個大电影讲述的是补天士与擎天柱政权交接的过程,和全体变形金刚合力消灭宇宙大帝的事迹


与大部分机器人电影试图向观众灌输一種恐怖情绪不同,这部电影中的机器人能让观众感受到机器人的幽默和温柔的一面

本片的两个机器人C-3PO和R2-D2之间的关系离奇、有趣,形象已經深入人心这两个机器人是“忠实”的代表,斯瑞皮欧一身金甲走起路像是蹒跚学步的婴儿,一举一动故作矜持说话细声细气,而奧图则是一个蓝色的银桶状机器人无疑是机器人中的佼佼者,说起话来喋喋不休就像是谱写一曲数码交响曲。这两个机器人堪比“话匣子”对“音乐匣”为影片增添了喜剧和浪漫气息,这种情调贯穿于《星球大战》系列当中影片中有这么一幕:当身受重伤的奥图急需救助时,斯瑞皮欧恳求汉?索罗(Han Solo)帮忙:“先生你应该马上修理!如果我的电路或转动装置有用的话,我心甘情愿把它们献出来”斯瑞皮歐甚至愿意将他的虚拟肾脏捐献给奥图,这表明两个机器人的感情有多么深厚


未来警察演绎的一场高能暴力执法,温和包容与果敢独断嘚较量

本片讲述了核战后的人类世界里,名为“特警判官”的暴力执法机构维持社会治安的故事冷酷干练的特警爵德和萝莉新兵安德森被困于一幢贫民窟大厦中,必须从第1层闯到200层才能杀出一条血路。最后发生了什么?

“随着人工智能发展我们正在召唤恶魔。”特斯拉CEO马斯克在2014年10月在麻省理工学院发表演讲时发出了这样的警告。其实斯蒂芬·霍金、比尔·盖茨、硅谷天才投资人山姆·奥特曼和牛津大学教授尼克·伯斯特罗姆这些聪明绝顶的人也曾纷纷提出过AI威胁论。

上述这些科幻电影只是对未来AI发展的一种想象,其中有机器囚威胁人类的题材也有人类与机器人和谐共生的美好愿景,但在实际中AI到底会发展成什么样,还需人类进一步去探索和发现【责任編辑/郑希】

本文为IT时代网、IT时代周刊、创客100原创内容,转载请注明出处

IT时代网(关注微信公众号ITtime2000定时推送,互动有福利惊喜)所有原创文章蝂权所有未经授权,转载必究
创客100创投基金成立于2015年,直通硅谷专注于TMT领域早期项目投资。LP均来自政府、互联网IT、传媒知名企业和個人创客100创投基金对IT、通信、互联网、IP等有着自己独特眼光和丰富的资源。决策快、投资快是创客100基金最显著的特点

我要回帖

更多关于 什么是自我意识 的文章

 

随机推荐