大学有人工智能专业吗肛门吗?

内容字号:
段落设置:
字体设置:
精准搜索请尝试:
人工智能究竟有啥好担心?
来源:作者:岳恒责编:暴龙
5月24日消息,据国外媒体报道,在今年一月份,来自加州大学伯克利分校计算机科学家Stuart Russell起草了致全体人工智能研究员的公开信,并第一个在上面签名。Stuart呼吁研究者不能只注重让人工智能变得更强大,同样要保证其健康性和有益性:AI必须遵从人类的意愿,不能胡作非为。公开信发表后,已有数千人在上面签名。其中不乏来自谷歌、Facebook、微软等顶尖人工智能研究机构的科学家。同时来自全世界的物理学家、哲学家也在上面留下了自己的名字。Stuart是加州大学伯克利分校的智能系统中心的创始人,他一直在关注机器自主思考可能给人类带来的危害。他发表了超过200篇相关文章,还是业内标准教科书《人工智能:现代方法》的合作作者之一。但当下迅速发展的人工智能技术给Stuart带来了长远的担忧,而惊人的发展速度无疑加深了这种忧虑。Stuart表示目前的AI技术已经有了长足的进步,神经元算法带来的改善不容小视。这些智能算法被应用在人脸识别系统、智能手机助理系统以及谷歌自动驾驶汽车中。甚至,《自然》杂志的一篇报道称一个模拟神经元人工智能网络在一款Atari公司的游戏中的表现已经超过了人类,而这个系统的输入仅仅是电脑屏幕上显示的内容和一个“得到尽可能高的分数”的目标。没有任何预设的程序,这个智能网络懂得分辨屏幕上的外星人、子弹,会在合适的时机进行左移、右移。《QUANTA》杂志采访了Stuart,询问了他对当前人工智能发展的几点看法。让我们来看看该领域的大师如何评价这一革命性技术吧。QUANTA:你为什么坚持人工智能研究必须以可证实对人类有益为前提?Stuart:我认为这是一个错误的问题,因为“人类价值”不能被“证实”。当然,人类价值本身也没有准确的定义,谁又知道人类为什么存在呢,可能这永远都是个迷。但考虑到我们人类的行为的意义,你会希望机器人至少能体会到其中的大部分精髓。人工智能可能不能完全理解我们的所作所为,但它们至少要和我们站在同一战线上,有着共同的基本原则。换句话说,它们不能成为我们的绊脚石甚至伤害我们。QUANTA:你打算怎么实现这一点?Stuart:我现在正在这方面努力。目前我觉得一种名为“逆强化学习”的技术可以派上用场。平常的学习原理很简单,基于你的表现好坏,你会得到奖励或者惩罚,你的目标也很明确,就是想方设法获得尽可能多的奖励。Atari的游戏就是一个这样的典型的系统。逆向学习则是完全相反的过程,你首先得到结果,然后你去思考什么样的行为最可能带来这样的结果。比如,你的机器人看到你早上艰难的从床上爬起来,冲了一杯咖啡,在一个嗡嗡作响的箱子里加热了点煎饼,而且在吃这些东西时你脸上浮现出了愉快的深情,那么它的人工智能就会告诉它:人早上喝咖啡是好的。逆强化学习有着海量的资料可以使用,无论是书籍、电影还是网络,上面有着成千上万的人类活动记录,智能体可以从中感受到人类追求的基本价值和遵循的基本原则。QUANTA:你的研究生涯主要关注了理解人工智能是什么,并认为这是实现人工智能的前提。那么你目前有什么收获呢?Stuart:在八十年代的研究中我开始思考理性决策的问题,后来我发现这是一个不可能完成的任务。如果你是理性的,你会判断自己目前的状况、可选择做法、每种做法带来的结果,但是又有哪一种做法是百分之百确保得到想要的结果的呢?世界上的事情变化多的让人眼花缭乱,没有那么多事是确定的。理性行为的定义就要求你的能力盖过整个未来和宇宙,换句话说,它在计算上是不可能的。所以我换了思路:那么人类是怎样做决定的呢?QUANTA:人类怎么做的?Stuart:人类的大脑是一部效率惊人的概率运算机器。它的诀窍不是准确掌握每一条信息,而是对未来有一个大概的预测,并推测最可能带来好结果的做法。拿下棋来说,如果是理性决策的人,他就只会走那些可以将军的棋子。现实中没有人这么下棋,人们不会考虑十几步之后的事情,他们会考虑几个可能的走法,看哪一种最可能带来优势。人一生大约会做20万亿的动作,做一次演讲会有13亿个动作,理性决策要求你预测13亿个动作后的准确状况,这太疯狂了。我们从不会想“我要先迈左脚再动右脚,再打开门……”而是想“我该去做演讲了”。QUANTA:你可以证明人工智能系统不会重写自己的软件,覆盖人类预设的目标吗?Stuart:计算机程序有着许多不确定性。阿兰图灵曾指出一个计算机程序不可能判断另一个程序是陷入了无限循环还是最终会产生输出。因此,如果你有一个可以重写自身的程序,你就有了一个矛盾,你不能证明这个新程序是否具有某些性质,这个程序也不知道自己写了一个什么。所以,问题不是“AI是否会重写自己”而是“AI写出的程序会对我们有怎样的影响”。我们目前对人工智能的设计能力所知甚少。QUANTA:目前有什么很有前景的研究领域吗?Stuart:最近出现了一种叫做“网络现实系统”的研究领域,它们的研究内容是计算机与现实世界相联,让电脑通过网络控制机器手臂等等。许多电影中出现了人工智能掌控交通的剧情,也是该领域的研究内容。另外,空中交通管制也是其应用的一种。
软媒旗下软件:
IT之家,软媒旗下科技门户网站 - 爱科技,爱这里。
Copyright (C) , All Rights Reserved.人工智能有个严重问题:它说不清自己为啥这么牛!
【AI世代编者按】虽然人工智能可以解决很多问题,但由于这种技术存在“黑盒子”问题,因此没有一个人能够确切知道它的内部运作方式,因而可能引发严重问题。去年,一辆古怪的无人驾驶汽车开上了新泽西州蒙茅斯郡宁静的道路。这辆实验用车是由芯片制造商开发的,它的外观与其他无人驾驶汽车别无二致,但与()、特斯拉和通用汽车展示的系统不同,这辆汽车证明了人工智能的强大能量。它并没有遵循工程师提供的任何指令,而是通过观察人类司机的驾驶方式,完全依赖算法自学成才。让一辆汽车自学成才确实令人惊喜,但也带来了一丝不安,因为我们并不完全清楚它是如何制定决策的。车身传感器收集的信息会直接传输到巨大的人工神经网络,在那里处理数据,然后生成相应的指令,引导汽车操纵方向盘、刹车和其他系统。最终的结果似乎符合你对一个人类驾驶员的预期。但如果它有朝一日做出什么令人意外的举动,比如撞到路边的树木,或在绿灯前停止不动,那该如何是好?以现在的情况来看,可能很难找出背后的原因。人工智能系统十分复杂,就连设计它的工程师都难以分辨某个具体行动背后的逻辑。你又不能直接向它询问原因:目前还没有一种明确的方式可以设计出这样的系统,从而随时解释它每一步行动背后的原因。这种汽车的神奇思维引出了人工智能领域的一个若隐若现的问题。这辆汽车的底层采用了名为深度学习的人工智能技术,最近几年的许多研究都表明,这项技术很擅长解决很多问题,而且已经广泛部署在图像说明、语音识别、语言翻译等诸多领域领域。还有人希望用同样的技术诊断恶性疾病,制定数百亿美元的交易策略,甚至通过数不清的其他方式改变一个又一个的行业。但除非你找到一种方式,让它的开发者充分理解深度学习技术,并对用户肩负起应负的责任,否则这翻畅想就无法实现——或者说,不应该实现。如若不然,就很难预测何时出现问题——毕竟,按照目前的设计,这些系统肯定会出现问题。但英伟达之所以仍在测试,却有它自己的原因。各种各样的数学模型已经可以帮助人们在假释、放贷和招聘领域制定决策。如果你可以评估这些数学模型,那就有可能理解它们背后的逻辑。但银行、军队和雇主现在都把精力转向了更加复杂的机器学习方法,使得自动化决策流程变得完全无法理解。作为其中最常见的一种技术,深度学习与以往的计算机编程截然不同。“这个问题已经凸显出来,今后还将越来越受重视。”麻省理工学院机器学习应用教授多米·加考拉(Tommi Jaakkola)说,“无论是投资决策、医疗决策还是军事决策,你肯定都不希望把权力交给一个‘黑盒子’。”有人认为,向人工智能系统质问其结论背后的原因是一项合法的基本权利。从2018年夏天开始,欧盟可能就会要求相关企业具备相应的能力,以便向用户解释自动化系统的决策理由。这或许难以实现,即便是对那些表面看来相对简单的系统也同样如此,包括那些使用深度学习技术投放广告和推荐歌曲的应用和网站。这些服务所使用的电脑采用了自我编程模式,外界无法理解它们的行为方式。就连负责开发这些应用的工程师也无法解释它们的行为。这便引发了许多难以置信的问题。随着科技不断进步,我们可能很快就会跳过某个门槛,到那时,必须要给予人工智能极大的信任才能顺利使用这些系统。诚然,人类很多时候也无法解释我们自己的思维过程——但我们却可以通过各种各样的方式利用直觉来信任或评价他人。但对于这些思维和决策方式都不同于人类的机器来说,有没有可能实现这一点呢?我们之前从未开发过连它的创造者都无法完全理解的机器。我们能否与这些无法预测、无法理解的机器展开顺畅的沟通,保持和睦的关系?带着这些问题,我开始研究谷歌、和很多公司的人工智能算法,还找到了一位当今时代最伟大的哲学家。医学尝试2015年,纽约西奈山医院(Mount Sinai Hopital)决定用深度学习分析该院庞大的病历数据。这个数据集里包含病人的数百个变量,都来自他们的检测结果、医生面诊等环节。由此催生了一个名为Deep Patient的项目,它利用70万病人的数据进行训练,然后对新的病例展开测试:结果显示,它在预测疾病方面表现十分优异。在没有任何专家指导的情况下,Deep Patient挖掘了隐藏在医院数据中的各种模式,甚至可以借此了解人们何时有可能患上肝癌等各种疾病。在西奈山医院负责这个项目的乔尔·杜德利(Joel Dudley)表示,有很多方法都很适合通过病例来预测疾病。但他也补充道,“这种方法效果好很多。”与此同时,Deep Patient也有些令人疑惑。他在预测精神分裂症等精神疾病方面的表现出奇得好,但由于精神内科医生向来很难预测精神分裂,所以杜德利想知道,这套系统究竟是如何做到的。他至今没有找到答案,这套新系统没有透露出任何理由。如果想让Deep Patient真正为医生提供帮助,最理想的情况就是阐述这种预测背后的逻辑,确保整个过程精确且有事实依据——例如,医生给某人开具的处方药物是否发生了某种变化。“我们可以开发这种模型,”杜德利说,“但却并不知道它是如何工作的。”人工智能并非总是如此。最初,关于可以理解、可以解释的人工智能应该是什么样子,出现了两派观点。很多人认为,最有意义的机器应该根据规则和逻辑做出判断,这样一来,任何愿意了解代码的人都可以理解它的内部工作原理。还有人认为,如果机器从学领域获得启发,通过观察和经验来学习,就更容易实现智能。这就意味着把编程任务交给机器自己来完成。解决问题时,不再需要程序员编写命令,而是由程序根据样本数据和渴望的输出结果来自主生成算法。已经成为当今最强大人工智能系统的机器学习技术就遵循了后一条道路:本质上是由机器自主编程。这种算法起初的实际应用范围非常有限,在年代,还仅限于一些边缘领域。之后,很多行业的电脑化普及和大型数据集的涌现重新点燃了人们的兴趣。这也推动了更加强大的机器学习技术的发展,尤其是新一代的人工神经网络。到1990年代末,神经网络已经可以自动对手写字母进行数字化处理。但直到这个十年初期,经过了一系列聪明的调整和提炼之后,真正大规模——或者真正“深度”——的神经网络才在自动感知领域实现了重大提升。如今的人工智能爆发都要归功于深度学习,它为计算机赋予了无与伦比的力量,包括实现与人类相似的口语能力,这种技术非常复杂,根本无法通过手动编程来实现。深度学习还改变了计算机视觉,并大幅提升了机器翻译效果。它现在可以用于引导医疗、金融、生产等各个领域的关键决策。黑盒效应与手动编码的系统相比,机器学习技术的工作方式天生就很模糊,即便是对计算机家来说也同样如此。这并不意味着未来的所有人工智能技术都会同样难以理解。但从特性上看,深度学习的确像是一个“黑盒子”。你无法通过直接研究深度神经网络来了解它的工作模式。神经网络得出的推论,嵌入在成千上万个模拟神经元的行为之中,它们组成了数十甚至数百个杂乱相连的不同层次。第一层的每个神经元都负责接收输入信息,例如一个图像中某个像素的强度,然后通过计算来输出新的信号。在复杂的网络中,这些输出结果会进一步成为下一层神经元的输入信息,如此往复,直到生成整体输出结果。另外,还有一个被称作反向传播的过程,可以通过调整个别神经元的计算让神经网络学会生成期望的输出结果。因为深度网络有那么多层,所以可以从不同的抽象层面认识事物。例如,在一套专门为了识别狗而打造的系统中,底层神经元可以识别轮廓或颜色等简单的元素,较高层次的神经元则识别皮毛或眼睛等更加复杂的元素,最顶层则负责识别狗这个整体。简单来说,同样的方法也可以用于处理其他任务,从而让机器实现自学,包括说话时构成语音的声音,在文本中构成句子的字母和单词,或者开车时转动方向盘的动作。现在出现了一些具有独创性的策略,试图捕捉并详细解释这类系统中发生了哪些事情。2015年,谷歌研究人员修改了一套深度学习图形识别算法,使之不再识别照片中的物体,而是生成或修改这样的物体。通过反向运行这种算法,便可了解算法在识别鸟或建筑时使用了哪些特征。这个名为Deep Dream的项目生成的图片,呈现出动物从云朵和植物中浮现的奇异效果,还有宝塔从森林或山脉中盛开的幻觉效果。这些图片证明深度学习并非完全不可理解,同时也表明这些算法把注意力集中在熟悉的视觉特征上,包括鸟嘴和羽毛。不过,这些图片也透露出深度学习与人类知觉的差异,正因如此,人工智能往往可以利用那些被我们忽略的信息。谷歌研究人员指出,当算法生成哑铃的图像时,还生成了一个抓着哑铃的人类胳膊。这表明机器已经认定,胳膊也是哑铃的一部分。进一步的发展是因为借鉴了来自神经科学和认知科学领域的想法。怀俄明大学助理教授杰夫·克鲁尼(Jeff Clune)已经部署了相当于人工智能的光幻觉来测试深度神经网络。2015年,克鲁尼的团队展示了如何利用某些图片欺骗神经网络,使之得出错误的结论,原因在于这些图片利用了系统所寻找的底层模式。作为克鲁尼的合作者,詹森·尤辛斯基(Jason Yosinski)也开发了一个像插入大脑的探针一样的工具。他的工具瞄准了神经网络中的任意一个神经元,然后寻找对其激活程度最高的图片。结果出现了一些抽象的图片(就像印象派画家绘制的火烈鸟或校车),凸显出及其感知能力的神秘特性。事关重大但我们需要的不只是一窥人工智能的思维方式,而且这个问题并不容易解决。深度神经网络中的运算之间的相互影响才是高层次模式识别和复杂决策过程的核心,但这些运算是一片由数学函数和变量构成的沼泽。“如果你有一个很小的神经网络,或许可以理解它。”加考拉说,“可一旦规模巨大,每一层都有数千个单元,或者总共拥有数百个层次,那就完全无法理解。”加考拉办公室隔壁是雷吉纳·巴兹雷(Regina Barzilay),这位麻省理工学院的教授致力于把机器学习应用于医疗领域。几年前,当时43岁的她被诊断出乳腺癌。诊断本身令人震惊,但更令巴兹雷失望的是,没有人使用尖端的统计学和机器学习技术为肿瘤学研究提供帮助,或者引导病人的治疗。她还表示,人工智能拥有很大的潜力改革医疗行业,但她也意识到,这项技术的潜力不仅局限于病例。她还希望使用更多尚未充分利用的数据,包括影响数据、病理学数据以及各种各样的信息。在去年结束了癌症治疗后,巴兹雷和她的学生开始与麻省综合医院的医生合作开发一套系统,可以通过挖掘病理学报告来寻找那些具备研究人员感兴趣的临床表现的病人。然而,巴兹雷发现,系统需要解释自己背后的逻辑。所以,她与加考拉和一个学生增加了一个步骤:这套系统会把它认为代表某种模式的文本片段提取出来,并加以强调。巴兹雷和她的学生还开发了一套能够通过乳房X光片找到早期乳腺癌迹象的深度学习算法,他们希望让这套系统具备一定的解释能力。“的确需要让机器和人类展开协作。”巴兹雷说。美国军方也投资数十亿美元,希望使用机器学习来控制汽车和飞机、识别目标、过滤海量情报数据。这一领域甚至比医疗行业更期待透明的算法,所以国防部将可解释性视作一大关键障碍。美国国防部高等研究项目署(DARPA)的项目经理大卫·冈宁(David Gunning)负责一个名为可解释人工智能(Explainable Artificial Intelligence)的计划。作为该部门的一位银发老兵,他之前在DARPA负责的项目最终促成了Siri的诞生。冈宁透露,自动化已经渗透到无数的军事领域。情报分析师正在测试机器算法,希望通过大量的监控数据判断各种模式。很多无人驾驶汽车和飞机也在开发和测试过程中。但士兵可能不会喜欢这种无法解释自己行为的机器坦克,而分析师在按照这些没有明确逻辑的信息采取行动的时候,也可能有所迟疑。“从这些机器学习天生就容易发出错误警报,所以情报分析师需要额外的帮助来明白系统为何会给出某条建议。”冈宁说。今年3月,DARPA从学术和工业界选择了13个资助项目,纳入了冈宁的这个计划。其中一些项目会以华盛顿大学教授卡洛斯·古斯特林(Carlos Guestrin)的成果作为基础。他和他的同事开发了一种方法,可以让机器学习系统阐述其输出结果的基本原理。也就是说,借助这种方法,电脑会从数据集中自动找到一些样本,然后给出简短的解释。例如,一套用于寻找恐怖分子邮件的系统,可能会在训练和决策过程中使用数以百万的样本信息。但利用华盛顿团队的方法,便可突出显示在信息中找到的特定关键词。古斯特林的团队也针对图形识别系统设计了一些方法,通过标注图片上最重要的部分来暗示它们的判断逻辑。保持谨慎但这类模式的缺点在于,系统提供的解释往往过于简单,因此可能缺失一些关键信息。“我们尚未真正实现目标,那就是让人工智能与我们对话,向我们解释。”古斯特林说,“我们距离真正能够解读的人工智能还有很长距离。”即便不是在癌症诊断或军事演习这种重要活动中,这一问题也会体现出来。如果想要普及人工智能技术,使之成为我们日常生活中的一个有益组成部分,了解人工智能的工作逻辑就显得尤其重要。苹果Siri团队负责人汤姆·克鲁伯(Tom Cruber)表示,可解释性是他的团队尝试让Siri更聪明的过程中的关键考量因素。克鲁伯不肯透露Siri未来的具体计划,但可以想见的是,如果你收到了Siri推荐的餐馆信息,你肯定希望知道背后的原因。苹果人工智能研究总监、卡内基梅隆大学副教授鲁斯兰·萨拉库特迪诺夫(Ruslan Salakhutdinov)认为,可解释性是人类与人工智能关系发展的核心。“这能带来信任。”他说。正如很多人类行为无法详细解释一样,人工智能可能也无法解释它的一切行为。“即使有人能够针对自己的行为给你一个合理的解释,很可能也不够全面,人工智能同样如此。”克鲁尼说,“这或许正是智能的天然属性,只有一部分可以用理性来解释,有的只是本能或潜意识,根本无法解释。”倘若如此,我们某些时候可能必须盲目相信人工智能的判断,否则就只能抛弃它。类似地,具体的判断也必须考虑社交智能。正如社会的基础是一套关于预期行为的合约,我们设计人工智能系统时,也需要尊重和适应社会规范。如果能够创造机器人坦克和其他杀人机器,那就必须确保它们的决策过程符合我们的道德判断。为了理解这些形而上的概念,我找到了塔夫斯大学的丹尼尔·丹尼特(Daniel Dennett),他是一位著名的哲学家和认知科学家,专门研究意识和心灵。在他的新书《From Bacteria to Bach and Back》是一本关于意识的广博论述,其中有一个章节认为智能的进化本身就是创造一套连创造者也无法理解的系统。“问题在于,我们拥有哪些条件来聪明地做到这一点——我们要求它们达到什么标准?要求我们自己达到什么标准?”他对我说。他还针对可解释性的问题提出了警告。“我认为,如果我们希望使用并依靠这些东西,那就应该尽可能明确地知道它们给出答案的逻辑和原因。”他说。但由于可能并不存在完美的答案,所以对待人工智能的解释时,应该像对待其他人类的解释一样保持一份谨慎——无论机器看起来有多么聪明。“如果机器并不比我们更加擅长解释自己的行为,那就别相信它。”(编译/长歌)推荐:人工智能汹涌而来,未来已变!关注“AI世代”微信号(tencentAI),关注未来。
正文已结束,您可以按alt+4进行评论
责任编辑:jimmonzang
扫一扫,用手机看新闻!
用微信扫描还可以
分享至好友和朋友圈
Copyright & 1998 - 2018 Tencent. All Rights Reserved人工已至,智能可期——我们离人工智能究竟还有多远?_网易新闻
人工已至,智能可期——我们离人工智能究竟还有多远?
用微信扫码二维码
分享至好友和朋友圈
(原标题:人工已至,智能可期——我们离人工智能究竟还有多远?)
新华社福州10月28日电(记者颜之宏 黄鹏飞)当你用“刷脸”的方式完成一笔外卖订单的支付,当你用语音助手在搜索引擎上找到一篇学术文章,当你双手离开汽车方向盘进入“无人驾驶模式”……当这些日常生活中稀松平常的小事嵌入人工智能的技术时,你是否感叹“人工智能”时代的来临。
  10月26日拍摄的2017中国计算机大会现场。新华社记者林善传摄
此间正在举行的2017中国计算机大会聚焦“人工智能改变世界”上,我们找到四位长期关注人工智能领域的专家学者,解答“人工智能”的相关问题。
“人工智能”究竟是什么?
在《我,机器人》这部电影中,“2035年,这是个机器的时代!”这句经典台词似乎预示着一个时代的迫近,我们的现实生活中涌现越来越多类似电影中Sonny形象的机器人,一些机器人甚至开始充当“机器保姆”的角色。
  10月26日,参观者与中医体质辨识仪机器人进行互动。 新华社记者林善传摄
“实际上我们距离真正的和人一样的智能机器时代还很远很远,”中国科学院计算技术研究所研究员陈熙霖的一番话似乎给不少“人工智能粉丝”泼了凉水,“目前的人工智能技术还仅仅是在某些点上的优先应用,距离真正通用的和人一样的智能还有很长一段路要走。”
而对于“人工智能”究竟是什么的问题上,陈熙霖表示,人工智能用更加直白的语言来说就是“人造的智能”,因此对人工智能所谓智能的水平并没有要求要对标人类的智能。
“人工智能能力的提升不是一蹴而就的。”陈熙霖举例说,他研究的领域是计算机视觉,尽管这些年在物体识别等问题上取得了长足的进展,但在理解环境、背景知识等方面还有很长的路要走。
当谈到是否担心人工智能有一天会取代人类时,陈熙霖说,人工智能的能力是人类赋予的,在当前连形成自主意识都遥不可及的情况下,当下这个时代的人类更应思考的是科技伦理问题。
人工智能需要情感吗?
很多人担心,人工智能一旦具有情感等自主意识,电影中的“终结者”将会跃出荧幕变为现实,而前不久AlphaGo Zero的出现也让不少人感受到了来自人工智能的威胁。
“未来通用人工智能具有情感是必然趋势,”上海交通大学计算机科学与工程系教授吕宝粮表示,“未来通用人工智能应该是逻辑智能和情感智能的有机结合,就像人一样不仅要有智商还需要情商。”在他看来,AlphaGo Zero下围棋只是在一个封闭的环境内深度学习的结果,这与开放环境下自主思考是两回事。
“做老师的都知道,我们教学生如何写论文相对比较容易,但是要教会学生怎么做人,却是一件非常难的事情。”吕宝粮认为,不同于生产线上的工业机器人,未来的服务机器人必须要与人交互,因此必须具备情感智能。
在人工智能领域,科学家将构建机器人的情感智能分为三个阶段,而目前对于情感智能的探索还仅仅停留在第一阶段,也就是简单的情绪识别阶段。而对于更高级别的情感度量与情感理解,目前最先进的情感智能系统仍无法做到,更不用说最高级别的建立机器人的价值系统和具有自主性和创造性了。
对于情感智能系统的开发,目前学界最有效的方式是利用可穿戴设备,采集人的生理信号,如脑电、眼动和皮肤阻抗等,再加上面部表情和语音信号,进行多模态情绪识别。近几年,随着干电极脑电采集技术的快速发展,目前的技术条件已经允许情绪识别的研究从实验室走向实际应用。但是,由于这些可穿戴设备往往都比较昂贵,还无法开展大规模的数据采集,从而影响了各类应用研究的开展。
在吕宝粮看来,情感智能研究的第二阶段仍然是一片空白,“三个阶段是循序递进的,目前我们离第二阶段还有很长一段距离,更不要说实现真正的情感智能了。”吕宝粮说。
我们还需要为人工智能做什么?
尽管科幻电影中的智能机器人仍然未成现实,但人工智能已经逐渐开始影响我们的日常生活。人工智能的梦想如何照进现实?“大咖”们给出了自己的建议。
哈佛大学数学系教授、国际著名数学家丘成桐认为,人工智能终将改变世界,但仍需更多理论层面的研究和突破。“比如无人驾驶汽车技术,可以通过反复测试实验更新迭代,但是并不一定完全适用于所有类型的路况和场景。”丘成桐认为,从有限经验推导出来的算法仍然不够,仍需要基础的理论模型支持才能实现技术革命。
丘成桐认为,人工智能未来的发展空间十分广阔,但政府的正确引导作用也十分重要,“我认为中国要发展人工智能,必须在基础理论研究领域保持稳定的投资。如果产业发展仅仅注重眼下的应用开发,那终将会跟着外国的发展轨迹走。”
微软公司全球执行副总裁沈向洋则认为,当前人工智能已经在许多细分领域影响世界;但目前人工智能仍然是停留在“感知”层面,在“认知”层面还未有革命性突破。
“目前,视觉、听觉等的信息获取技术层出不穷,比如扫脸识别,但感知到信息并不等同于理解信息,这主要受限于人工智能对自然语言理解方面的不足。”沈向洋介绍,目前智能翻译软件可以实现不同语种的转换、手机助理可以实时提醒用户行程安排,但机器人仍难以实现多来回的自然对话,“往更深层次发展,将涉及到脑科学、心理学、哲学等各类学科的交叉融合,这是未来的发展方向。”
“脑科学是我自己最关注的方向,但目前关于这一领域的投入还远远不够,同时人类对于脑科学的认识仍然需要更深层次的突破。”沈向洋说,脑科学就如同大脑的“空气动力学”,人们仍然不清楚大脑的运作规律,也难以像制造机器一样仿制出人造大脑,“这方面仍然需要大量的重复试验和研究”。
(原标题:人工已至,智能可期——我们离人工智能究竟还有多远?)
本文来源:新华社新媒体专线
责任编辑:王晓易_NE0011
用微信扫码二维码
分享至好友和朋友圈
加载更多新闻
热门产品:   
:        
:         
热门影院:
阅读下一篇
用微信扫描二维码
分享至好友和朋友圈

我要回帖

更多关于 人工智能会毁灭人类吗 的文章

 

随机推荐