霍金:人工智能终结人类要么成为最好的事,要么终结人类

霍金:AI或是人类文明史的终结 除非学会避免危险_中国经济网――国家经济门户
经济日报微信中经网微信
精彩图片推荐霍金:人工智能可能会终结人类|界面新闻 · 歪楼作为世界最顶尖的科学家之一,史蒂芬&霍金最近在接受BBC采访时认为,人类创造可以思考的机器将会对人类本身造成极大威胁。
当被问及是否要进一步改进他对外交流所使用的技术时,他说道:&人工智能的高速发展将预示着人类文明的终结。&
霍金患有肌萎缩性侧索硬化症(就是前段时期很火的冰桶挑战中提到的疾病),虽然全身均已僵化,但他通过英特尔公司为其开发的智能系统发声。
英国的科技企业Swiftkey也参与了智能系统的开发工作中,他们在随后推出的智能手机键盘系统中采用了类似技术,智能机器通过学习来推断人接下来将会用什么单词。
霍金教授也认为人工智能在现代社会中扮演的角色越来越重要,但是他担心这些技术最终颠覆人类。
&它们将脱离控制,并且进行更加优化的自我改造。人类自身受限于缓慢的生物进化,将会同机器人展开竞争,并最终被打败。&霍金说道。
但其他人并没有这么悲观。
智能聊天机器人Cleverbot的发明者Rollo Carpenter认为:&我相信我们始终将把握着技术,以及赋予这些机器解决实际问题的权力。&
而他发明的Cleverbot通过习得人类对话体系,成功在图灵测试中蒙骗了很多人,让他们相信对话者是人而不是机器。
Carpenter说人类要发明全智能机器还有比较长的一段路要走,但他相信在未来的数十年内将会实现这个愿望。&正因为我们不太知道智能机器人超越人类智力后会发生什么,因此我们也无法去判断其将带来的好或坏。&
当他将赌注压在了智能机器人将带来积极影响这一边。
但抱有同样担忧的并不仅有霍金教授一人。
短期内,智能机器人的普及将会造成大量工作机会的丧失;而长远来看,Space X公司的CEO Elon Musk就警告人工智能&将会成为人类生存的威胁&。
在BBC的采访中,霍金教授也谈到了互联网带来的好处和危险。
英国政府通信总部早就有过警告:互联网将会成为未来恐怖分子的指挥中心。霍金教授在提到这件事时评论到:&互联网巨头们应该为此采取一些措施,但是这又意味着将牺牲互联网的一定的自由度和隐私度,很难把握这之间的平衡。&
其实霍金早已尝试过所有的智能交流技术,他也期待着能够他使用的系统在写的能力上能够更快一点。
但是霍金教授机器上的发声已经很久没有更新过了,他喜欢带有一点机器人感觉的声音。
&这种声音已经成为了我的一个标志,我不想给他赋予更加自然的英式口音。如果孩子们也想有一套电脑声音的话,相信他们将会喜欢我的这种。&
更多专业报道,请
0相关文章您至少需输入5个字评论()霍金:人工智能的崛起可能是人类文明的终结,要学会如何规避危险
霍金:人工智能的崛起可能是人类文明的终结,要学会如何规避危险
Anguo的朋友圈
4月27日,2017全球移动互联网大会(GMIC)在北京国家会议中心举行。在全球领袖峰会现场,斯蒂芬·威廉·霍金发表了《让人工智能造福人类及其赖以生存的家园》的主题演讲。创客猫作为合作媒体到场进行图文直播和报道。斯蒂芬·威廉·霍金人工智能的发展对人类社会的影响一直众说纷纭。在霍金看来,人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。人类应该做的,就是竭尽所能确保人工智能的发展对人类和人类环境有利。人工智能从原始形态不断发展到被证明有用的同时,他认为,可能会出现一个结果,就是人工智能一旦脱离束缚,以不断加速的状态重新设计自身,而人类由于受到漫长的生物进化限制,无法与之竞争,将会被取代,这是对人类经济极大的破坏。霍金认为,对于人工智能的研究和开发应该暂停片刻,把重复的研究从提升人工智能能力转义到最大化人工智能的社会效益上。霍金表示,目前人们广泛认为,人工智能的研究正在稳步发展,对社会的影响可能很大,潜在好处是巨大的,但取得什么成果还不得而知。“正如我说过的,根除疾病和贫穷并不是完全不可能,由于人工智能的巨大潜力,研究如何从人工智能获益并规避风险是非常重要的。”人工智能的发展也引发了一些担忧。霍金表示,长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。对于这种情况,当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这个问题。因此,人类需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。所以,人工智能的成功有可能是人类文明史上最大的事件,也有可能是人类文明史的终结,除非人类学会如何规避危险。“我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。”霍金说,目前来自世界各国的科学家共同在联合国会议上支持对于核武器的禁令。所以虽然对人工智能潜在危险有所意识,但他内心仍秉承乐观的态度,因为也许借助新技术革命的工具,人类可以削减工业化对自然界造成的伤害。在回答“互联网巨头拥有海量数据,如果约束他们保证用户隐私”的问题时,霍金表示,如果互联网上所有的信息均通过基于量子技术加密,这样互联网公司在一定时间内便无法破解,但安全服务会反对这个做法。对于下一次革命会由什么驱动的问题,霍金回答说,“我认为是计算机科学的发展,包括人工智能和量子计算。科技已经成为我们生活中重要的一部分,但未来几十年里,它会逐渐渗透到社会的每一个方面,为我们提供智能地支持和建议,在医疗、工作、教育和科技等众多领域。但是我们必须要确保是我们来掌控人工智能,而非它掌控我们。”以下为霍金演讲实录:霍金:在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于年,成立了人工智能长期未来总筹论坛,他们近期在目的导向的中性技术上投入了大量的关注。但我们的人工智能系统须要按照我们的意志工作。跨学科研究是一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。文明所提产生的一切都是人类智能的产物,我相信生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。尽管我对人类一贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定。2015年1月份,我和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。在这之前,埃隆·马斯克就警告过人们:超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。我和他同在“生命未来研究所”的科学顾问委员会,这是一个为了缓解人类所面临的存在风险的组织,而且之前提到的公开信也是由这个组织起草的。这个公开信号召展开可以阻止潜在问题的直接研究,同时也收获人工智能带给我们的潜在利益,同时致力于让人工智能的研发人员更关注人工智能安全。此外,对于决策者和普通大众来说,这封公开信内容翔实,并非危言耸听。人人都知道人工智能研究人员们在认真思索这些担心和伦理问题,我们认为这一点非常重要。比如,人工智能是有根除疾患和贫困的潜力的,但是研究人员必须能够创造出可控的人工智能。那封只有四段文字,题目为《应优先研究强大而有益的人工智能》的公开信,在其附带的十二页文件中对研究的优先次序作了详细的安排。在过去的20年里,人工智能一直专注于围绕建设智能代理所产生的问题,也就是在特定环境下可以感知并行动的各种系统。在这种情况下,智能是一个与统计学和经济学相关的理性概念。通俗地讲,这是一种做出好的决定、计划和推论的能力。基于这些工作,大量的整合和交叉孕育被应用在人工智能、机器学习、统计学、控制论、神经科学、以及其它领域。共享理论框架的建立,结合数据的供应和处理能力,在各种细分的领域取得了显著的成功。例如语音识别、图像分类、自动驾驶、机器翻译、步态运动和问答系统。随着这些领域的发展,从实验室研究到有经济价值的技术形成良性循环。哪怕很小的性能改进,都会带来巨大的经济效益,进而鼓励更长期、更伟大的投入和研究。目前人们广泛认同,人工智能的研究正在稳步发展,而它对社会的影响很可能扩大,潜在的好处是巨大的,既然文明所产生的一切,都是人类智能的产物;我们无法预测我们可能取得什么成果,当这种智能是被人工智能工具放大过的。但是,正如我说过的,根除疾病和贫穷并不是完全不可能,由于人工智能的巨大潜力,研究如何(从人工智能)获益并规避风险是非常重要的。现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。还有另外一些担忧,由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。这样错位的结果是否有可能?如果是,这些情况是如何出现的?我们应该投入什么样的研究,以便更好的理解和解决危险的超级智能崛起的可能性,或智能爆发的出现?当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这个问题。因此,我们需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。近来的里程碑,比如说之前提到的自主驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象。巨大的投入倾注到这项科技。我们目前所取得的成就,和未来几十年后可能取得的成就相比,必然相形见绌。而且我们远不能预测我们能取得什么成就,当我们的头脑被人工智能放大以后。也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害。关乎到我们生活的各个方面都即将被改变。简而言之,人工智能的成功有可能是人类文明史上最大的事件。但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。我们正在焦急的等待协商结果。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。现阶段,我对灾难的探讨可能惊吓到了在座的各位。很抱歉。但是作为今天的与会者,重要的是,你们要认清自己在影响当前技术的未来研发中的位置。我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。去年10月,我在英国剑桥建立了一个新的机构,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”是一个跨学科研究所,致力于研究智能的未来,这对我们文明和物种的未来至关重要。我们花费大量时间学习历史,深入去看——大多数是关于愚蠢的历史。所以人们转而研究智能的未来是令人欣喜的变化。虽然我们对潜在危险有所意识,但我内心仍秉持乐观态度,我相信创造智能的潜在收益是巨大的。也许借助这项新技术革命的工具,我们将可以削减工业化对自然界造成的伤害。我们生活的每一个方面都会被改变。我在研究所的同事休·普林斯承认,“利弗休姆中心”能建立,部分是因为大学成立了“存在风险中心”。后者更加广泛地审视了人类潜在问题,“利弗休姆中心”的重点研究范围则相对狭窄。人工智能的最新进展,包括欧洲议会呼吁起草一系列法规,以管理机器人和人工智能的创新。令人感到些许惊讶的是,这里面涉及到了一种形式的电子人格,以确保最有能力和最先进的人工智能的权利和责任。欧洲议会发言人评论说,随着日常生活中越来越多的领域日益受到机器人的影响,我们需要确保机器人无论现在还是将来,都为人类而服务。向欧洲议会议员提交的报告,明确认为世界正处于新的工业机器人革命的前沿。报告中分析的是否给机器人提供作为电子人的权利,这等同于法人(的身份),也许有可能。报告强调,在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关。在库布里克的电影《2001太空漫游》中,出故障的超级电脑哈尔没有让科学家们进入太空舱,但那是科幻。我们要面对的则是事实。奥斯本·克拉克跨国律师事务所的合伙人,洛纳·布拉泽尔在报告中说,我们不承认鲸鱼和大猩猩有人格,所以也没有必要急于接受一个机器人人格。但是担忧一直存在。报告承认在几十年的时间内,人工智能可能会超越人类智力范围,人工智能可能会超越人类智力范围,进而挑战人机关系。报告最后呼吁成立欧洲机器人和人工智能机构,以提供技术、伦理和监管方面的专业知识。如果欧洲议会议员投票赞成立法,该报告将提交给欧盟委员会。它将在三个月的时间内决定要采取哪些立法步骤。我们还应该扮演一个角色,确保下一代不仅仅有机会还要有决心,在早期阶段充分参与科学研究,以便他们继续发挥潜力,帮助人类创造一个更加美好的的世界。这就是我刚谈到学习和教育的重要性时,所要表达的意思。我们需要跳出“事情应该如何”这样的理论探讨,并且采取行动,以确保他们有机会参与进来。我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。谢谢。以下为部分现场提问:创新工场的CEO李开复:互联网巨头拥有巨量的数据,而这些数据会给他们各种以用户隐私和利益换取暴利的机会。在巨大的利益诱惑下,他们是无法自律的。而且,这种行为也会导致小公司和创业者更难创新。您常谈到如何约束人工智能,但更难的是如何约束人本身。您认为我们应该如何约束这些巨头?据我了解,许多公司仅将这些数据用于统计分析,但任何涉及到私人信息的使用都应该被禁止。会有助于隐私保护的是,如果互联网上所有的信息,均通过基于量子技术加密,这样互联网公司在一定时间内便无法破解。但安全服务会反对这个做法。猎豹移动CEO傅盛:灵魂会不会是量子的一种存在形态?或者是高维空间里的另一个表现?我认为近来人工智能的发展,比如电脑在国际象棋和围棋的比赛中战胜人脑,都显示出人脑和电脑并没有本质差别。这点上我和我的同事罗杰·彭罗斯正好相反。会有人认为电脑有灵魂吗?对我而言,灵魂这个说法是一个基督教的概念,它和来世联系在一起。我认为这是一个童话故事。百度总裁张亚勤:人类观察和抽象世界的方式不断演进,从早期的观察和估算,到牛顿定律和爱因斯坦方程式,到今天数据驱动的计算和人工智能,下一个是什么?我们需要一个新的量子理论,将重力和其他自然界的其它力量整合在一起。许多人声称这是弦理论,但我对此表示怀疑,目前唯一的推测是,时空有十个维度。音乐人、投资者胡海泉:如果星际移民技术的成熟窗口期迟到,有没有完全解决不了的内发灾难导致人类灭绝?抛开陨星撞地球这样的外来灾难。是的。人口过剩、疾病、战争、饥荒、气候变化和水资源匮乏,人类有能力解决这些危机。但很可惜,这些危机还严重威胁着我们在地球上的生存,这些危机都是可以解决的,但目前还没有。提问:从石器、蒸汽、电气……您认为下一次的革命会是由什么驱动的?(我认为是)计算机科学的发展,包括人工智能和量子计算。科技已经成为我们生活中重要的一部分,但未来几十年里,它会逐渐渗透到社会的每一个方面,为我们提供智能地支持和建议,在医疗、工作、教育和科技等众多领域。但是我们必须要确保是我们来掌控人工智能,而非它(掌控)我们。文丨创客猫小兰
本文仅代表作者观点,不代表百度立场。系作者授权百家号发表,未经许可不得转载。
Anguo的朋友圈
百家号 最近更新:
简介: 夷所思悟心,心旷神怡!
作者最新文章霍金北京演讲:人工智能也可能是人类文明的终结者
4月27日,霍金在全球移动互联网大会上进行视频演讲
4月27日,著名物理学家史蒂芬·霍金在北京举办的全球移动互联网大会上做了视频演讲。在演讲中,霍金重申人工智能崛起要么是人类最好的事情,要么就是最糟糕的事情。他认为,人类需警惕人工智能发展威胁。因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类由于受到漫长的生物进化的限制,将无法与之竞争,从而被取代。
以下为霍金演讲内容:
在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。
人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于 年,成立了人工智能长期未来总筹论坛,他们近期在目的导向的中性技术上投入了大量的关注。但我们的人工智能系统须要按照我们的意志工作。跨学科研究是一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。
文明所提产生的一切都是人类智能的产物,我相信生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。
在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。尽管我对人类一贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定。
在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。尽管我对人类一贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定。
2015 年 1 月份,我和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。在这之前,埃隆·马斯克就警告过人们:超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。我和他同在“生命未来研究所”的科学顾问委员会,这是一个为了缓解人类所面临的存在风险的组织,而且之前提到的公开信也是由这个组织起草的。这个公开信号召展开可以阻止潜在问题的直接研究,同时也收获人工智能带给我们的潜在利益,同时致力于让人工智能的研发人员更关注人工智能安全。此外,对于决策者和普通大众来说,这封公开信内容翔实,并非危言耸听。人人都知道人工智能研究人员们在认真思索这些担心和伦理问题,我们认为这一点非常重要。比如,人工智能是有根除疾患和贫困的潜力的,但是研究人员必须能够创造出可控的人工智能。那封只有四段文字,题目为《应优先研究强大而有益的人工智能》的公开信,在其附带的十二页文件中对研究的优先次序作了详细的安排。
在过去的20年里,人工智能一直专注于围绕建设智能代理所产生的问题,也就是在特定环境下可以感知并行动的各种系统。在这种情况下,智能是一个与统计学和经济学相关的理性概念。通俗地讲,这是一种做出好的决定、计划和推论的能力。基于这些工作,大量的整合和交叉孕育被应用在人工智能、机器学习、统计学、控制论、神经科学、以及其它领域。共享理论框架的建立,结合数据的供应和处理能力,在各种细分的领域取得了显著的成功。例如语音识别、图像分类、自动驾驶、机器翻译、步态运动和问答系统。
随着这些领域的发展,从实验室研究到有经济价值的技术形成良性循环。哪怕很小的性能改进,都会带来巨大的经济效益,进而鼓励更长期、更伟大的投入和研究。目前人们广泛认同,人工智能的研究正在稳步发展,而它对社会的影响很可能扩大,潜在的好处是巨大的,既然文明所产生的一切,都是人类智能的产物;我们无法预测我们可能取得什么成果,当这种智能是被人工智能工具放大过的。但是,正如我说过的,根除疾病和贫穷并不是完全不可能,由于人工智能的巨大潜力,研究如何(从人工智能)获益并规避风险是非常重要的。
现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。还有另外一些担忧,由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。
长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。这样错位的结果是否有可能?如果是,这些情况是如何出现的?我们应该投入什么样的研究,以便更好的理解和解决危险的超级智能崛起的可能性,或智能爆发的出现?
当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这个问题。因此,我们需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。
近来的里程碑,比如说之前提到的自主驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象。巨大的投入倾注到这项科技。我们目前所取得的成就,和未来几十年后可能取得的成就相比,必然相形见绌。而且我们远不能预测我们能取得什么成就,当我们的头脑被人工智能放大以后。也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害。关乎到我们生活的各个方面都即将被改变。简而言之,人工智能的成功有可能是人类文明史上最大的事件。
但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。我们正在焦急的等待协商结果。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。
现阶段,我对灾难的探讨可能惊吓到了在座的各位。很抱歉。但是作为今天的与会者,重要的是,你们要认清自己在影响当前技术的未来研发中的位置。我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。
去年10月,我在英国剑桥建立了一个新的机构,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”是一个跨学科研究所,致力于研究智能的未来,这对我们文明和物种的未来至关重要。我们花费大量时间学习历史,深入去看——大多数是关于愚蠢的历史。所以人们转而研究智能的未来是令人欣喜的变化。虽然我们对潜在危险有所意识,但我内心仍秉持乐观态度,我相信创造智能的潜在收益是巨大的。也许借助这项新技术革命的工具,我们将可以削减工业化对自然界造成的伤害。
我们生活的每一个方面都会被改变。我在研究所的同事休·普林斯承认,“利弗休姆中心”能建立,部分是因为大学成立了“存在风险中心”。后者更加广泛地审视了人类潜在问题,“利弗休姆中心”的重点研究范围则相对狭窄。
人工智能的最新进展,包括欧洲议会呼吁起草一系列法规,以管理机器人和人工智能的创新。令人感到些许惊讶的是,这里面涉及到了一种形式的电子人格,以确保最有能力和最先进的人工智能的权利和责任。欧洲议会发言人评论说,随着日常生活中越来越多的领域日益受到机器人的影响,我们需要确保机器人无论现在还是将来,都为人类而服务。向欧洲议会议员提交的报告,明确认为世界正处于新的工业机器人革命的前沿。报告中分析的是否给机器人提供作为电子人的权利,这等同于法人(的身份),也许有可能。报告强调,在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关。在库布里克的电影《2001太空漫游》中,出故障的超级电脑哈尔没有让科学家们进入太空舱,但那是科幻。我们要面对的则是事实。奥斯本·克拉克跨国律师事务所的合伙人,洛纳·布拉泽尔在报告中说,我们不承认鲸鱼和大猩猩有人格,所以也没有必要急于接受一个机器人人格。但是担忧一直存在。报告承认在几十年的时间内,人工智能可能会超越人类智力范围,人工智能可能会超越人类智力范围,进而挑战人机关系。报告最后呼吁成立欧洲机器人和人工智能机构,以提供技术、伦理和监管方面的专业知识。如果欧洲议会议员投票赞成立法,该报告将提交给欧盟委员会。它将在三个月的时间内决定要采取哪些立法步骤。
我们还应该扮演一个角色,确保下一代不仅仅有机会还要有决心,在早期阶段充分参与科学研究,以便他们继续发挥潜力,帮助人类创造一个更加美好的的世界。这就是我刚谈到学习和教育的重要性时,所要表达的意思。我们需要跳出“事情应该如何”这样的理论探讨,并且采取行动,以确保他们有机会参与进来。我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。
来源:澎湃新闻
声明:本文版权归原作者及原出处所有,内容为作者观点,并不代表本公众号赞同其观点和对其真实性负责。如涉及版权等问题,请及时与我们联系,我们将立即更正或删除相关内容。本公众号拥有对此声明的最终解释权。
更多精彩热文:
教师平均寿命丨大学老师很轻松?丨恢复山东医科大学!丨成为学生爱戴的好老师!丨不上大学丨大学要开“国学”专业丨山大搬迁章丘丨为什么董卿又火了?丨中国大学综合实力700强丨科研机构与高校整合共建丨高校合并潮丨“双一流”遴选标准丨教师生存状况报告丨最新ESI排名百强丨2016年高被引榜单丨杨振宁重回祖国丨
回复以下 关键词查看往期精彩内容
985丨211丨100丨就业丨毕业丨职称丨孔子丨三体丨三联丨mooc丨创业丨未来丨大学丨师道丨课程丨管办评丨施一公丨彭丽媛丨互联网+丨青年教师丨浙江丨学术丨教改丨临沂丨教育法丨就业力丨创业大学丨高校反腐丨近亲繁殖丨亚洲大学丨教授治学丨科研评价丨离岗创业丨科研怪相
感谢您支持“中国大学教育”
责任编辑:
声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
今日搜狐热点

我要回帖

更多关于 霍金对人工智能的看法 的文章

 

随机推荐