孙佳栋一共研制多少颗慧眼卫星研制过程

请问中科院有没有这样一位老院士_百度知道
请问中科院有没有这样一位老院士
华裔,在苏联出生和成长,美国制造出世界第一台计算机时被苏联政府派往美国学习计算机科学。参加过二战,手上虎口附近手上,从此少了一截血管。学成之后回苏联,当选苏联当时的圣彼得堡科学院(貌似)院士。后作为援助中国的科学工作者被派往中国。1960年苏联...
我有更好的答案
我感觉你说的应该是孙佳栋院士,不知道是不是,我贴一下他的简历,你看是不是吧!!!辽宁省复县人,1929年生,男,中共党员,运载火箭与卫星技术专家,中国科学院院士,国际宇航科学院院士。[编辑本段]个人经历
1948年孙家栋考入哈尔滨工业大学预科。
1951年被空军选派到苏联莫斯科茹科夫斯基空军工程学院学习飞机、设计维修及管理。
1958年毕业,获得全苏斯大林金质奖章。回国后被分配到国防部第五研究院一分院从事导弹原创工作。
1960年孙家栋担任型号总体主任设计师。
1967年参加领导中国第一颗人造地球卫星“东方红一号”以及第一颗返回式遥感卫星。
日,“东方红一号”发射成功。
1971年任总体设计师的“实践一号”卫星发射成功。
1975年任总体设计师的第一颗返回式遥感卫星发射成功。
1980年获七机部劳动模范称号,1984年荣立航天部一等功,1985年获两项国家科技进步奖特等奖。
1982年孙家栋任航天部总工程师。
1984年,作为总设计师领导中国第一颗同步试验通信卫星“东方红二号”发射成功。
1985年任航天部副部长。
1986年任中国第二代卫星“东方红三号”,“风云二号”、中巴合作第一颗地球资源卫星总设计师。
1989年担任中国火箭进入国际市场谈判代表团团长,参加中美两国政府间的国际商业发射服务协议谈判。
1988年孙家栋当选国际宇航科学院院士,1992年当选中科院院士,1996年当选国际欧亚科学院院士。1999年被授予两弹一星功勋奖章。
曾任东方红一号、实践一号、返回式遥感卫星的技术总负责人,作为东方红二号、三号试验通信卫星、资源一号卫星、北斗一号导航卫星、中星22号卫星工程的总设计师,主持制定卫星总体方案,现担任绕月工程总设计师,并任风云二号气象卫星、环境一号卫星和鑫诺二号大容量通信卫星工程的总设计师。
1999年被国家授予“两弹一星”功勋奖章。
2003年任中国探月工程总设计师。
日孙家栋院士被哈尔滨工业大学(威海)聘为兼职教授
为您推荐:
其他类似问题
您可能关注的内容
院士的相关知识
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。&figure&&img src=&https://pic1.zhimg.com/v2-edcfea44eee_b.jpg& data-rawwidth=&1280& data-rawheight=&640& class=&origin_image zh-lightbox-thumb& width=&1280& data-original=&https://pic1.zhimg.com/v2-edcfea44eee_r.jpg&&&/figure&&p&编者按:深度学习的运用常常能为我们解决很多难题,但深度学习的使用需要依托大数据的支持,所得出的模型一般也是不可解释的。在本月初的“微软AI讲堂”西安交通大学站上,微软亚洲研究院主管研究员邵斌向同学们介绍了符号学习的概念并比较了它和深度学习之间的区别,指出符号学习的优点在于它能够尝试从小数据集中找到数据的可解释规律。&/p&&hr&&p&大数据时代,深度学习是一个非常神奇的“黑盒子”。在给它很多数据之后,它解决问题的能力有时甚至会超出人类预期,比如说在ImageNet计算机视觉挑战赛中,&u&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzAwMTA3MzM4Nw%3D%3D%26mid%3Didx%3D1%26sn%3D933c7328221cfec90e02e3%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&微软亚洲研究院的识别错误率在2015年已经低至3.57%&/a&&/u&,超过了人类的平均视觉水平。&/p&&p&&br&&/p&&p&当有了很多数据之后,我们往往会在第一时间想到使用深度学习,期望深度学习可以很好地把某个问题解决。实际上,&b&能很好地被深度学习解决的问题都基于一个通用的学习范式——首先定义一个损失函数,然后尝试在收集到的数据上去最小化这个损失函数&/b&。粗略看,深度学习在做的事情如下:当收集到了与某个问题相关的数据后,我们用深度学习这个黑盒子对训练样本的输入和输出做一个映射,然后基于独立同分布的假设,我们期望这种映射在测试集上同样有效。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-bb5bd1cec9fac_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&564& data-rawheight=&264& class=&origin_image zh-lightbox-thumb& width=&564& data-original=&https://pic2.zhimg.com/v2-bb5bd1cec9fac_r.jpg&&&/figure&&p&&b&深度学习和符号学习的区别&/b& &/p&&p&&br&&/p&&p&让我们从另一个角度来看数据建模这个问题。受限于各种各样的约束,&b&我们能采集到的数据总是问题相关的所有数据中的一个子集&/b&。在不同时刻、不同场合采集到的数据肯定是不同的,而对于不同的数据,深度学习也会产生不同的模型。换言之,深度学习会对观察到的不同数据子集建立不同的模型,而不是尝试去寻找产生数据的系统背后的规律。&br&&/p&&p&&br&&/p&&p&这就是我们今天要讨论问题的起点——&b&我们能否设计一种自动化的方法去发现一个系统背后的规律,找寻一个现象背后更加本质的东西&/b&?我们把这个工作叫做符号学习(Symbolic Learning)。什么是符号学习?它的基本定义如下:&b&符号学习是一种尝试发现数据样本间固有约束并建立可解释性模型的自动化计算方法。&/b&&/p&&p&&br&&/p&&p&对于深度学习,我们很多时候会想建立一个强大的模型。虽然一个很深的网络(比如152层的ResNet)会非常强大,但与此同时我们很难理解和解释它背后的道理。而符号学习有点像牛顿当年观察研究世界的方法。在收集到很多关于现实世界的数据后,牛顿得到了一套定律、方程和公式用来简洁、明了地刻画我们生活的这个物理世界。我们希望符号学习可以自动化地完成这个发现定律、生成方程和公式的过程。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-1ba3a80c93ce48fdb1343_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&413& data-rawheight=&490& class=&content_image& width=&413&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-448ddb85bb6294fcf3e75e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&729& data-rawheight=&406& class=&origin_image zh-lightbox-thumb& width=&729& data-original=&https://pic3.zhimg.com/v2-448ddb85bb6294fcf3e75e_r.jpg&&&/figure&&p&深度学习&b&强大、灵活&/b&。深度学习一个非常好的特点是其可训练性,它的&b&问题适用性因此特别好&/b&。面对一个新问题,我们总是可以尝试几个常用的模型,用收集到的数据训练一下,然后检查它们是否工作。&/p&&p&&br&&/p&&p&深度学习在很多问题上都很成功,但是也有一些固有缺点。比如,&b&它很难从非常少的数据里学习出一个好模型;&/b&另一个广为人知的缺点是&b&深度学习建立的模型通常很难解释。&/b&&/p&&p&&br&&/p&&p&&b&符号学习如何工作?&/b& &/p&&p&&br&&/p&&p&为了弥补深度学习的不足,我们来尝试利用符号学习的方法,像物理学家一样从数据样本中挑选有用的数据并建立准确、可解释的模型。 &/p&&p&&br&&/p&&p&我们把这里面用到的技术称之为&b&主动式符号回归(Proactive Symbolic Regression)&/b&。利用该技术,我们希望能为观察到的数据找到一个紧凑而准确的数学模型。这个想法很简单,我们希望&b&计算机能像一个物理学家一样处理我们采集到的数据&/b&!唯一不同的是物理学家靠人去处理数据,而我们希望这是一个自动化的、算法化的过程。我们拿中学物理课本上一个非常简单的力学建模问题举例:假设在一个牛顿力学系统里,有一个小车在运动。该系统有4个变量:初始速度v0、受力F、质量m和时间t。对于这些变量对应的每一组数值,我们都会采集到一个相对于初始位置的位移。在采集到多组数据之后,我们想得到一个力学公式或方程来准确描述我们观察到的物体运动。&/p&&p&&br&&/p&&p&理想情况下,一个智能的计算机程序可以像牛顿一样经过数据分析直接得到如下的数学公式:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-2c7d3de077beb8f97d6a8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&158& data-rawheight=&51& class=&content_image& width=&158&&&/figure&&p&一个可以用来求解该类问题的传统计算机技术是符号回归(Symbolic Regression)。对于一个给定的数据集,符号回归尝试寻找一个紧凑而准确的数学模型(通常为数学公式或方程)。&b&符号回归的好处非常明显,它找到的模型通常准确、紧凑,同时人可以方便解读&/b&。但&b&它面临的挑战也很明显,数学表达式空间是无穷无尽的。在这个无穷无尽的空间里,准确定位我们想要的数学表达式是一个非常难的问题&/b&。对于刚才的物理问题,采用目前最先进的符号回归软件(比如Eureqa)来做,经过大概十万次迭代之后,我们找到了一组从测试错误(测试错误已经在0附近)的角度来讲已经非常好的数学公式。但是,这些公式仍然不是那个完美的牛顿力学公式。我们可以让这个迭代寻找过程继续往下运行,在运行了几亿甚至几十亿次之后,它在很大概率上仍然无法找到上面所列的牛顿力学公式。&b&符号回归就像大海捞针,它可以找到一个非常接近的表达式,但是想找到最准确的公式是非常困难的&/b&。&/p&&p&&br&&/p&&p&问题来了,我们究竟能不能得到最终准确的公式?显然,物理学家是有办法做这件事情的。我们有没有办法从物理学家解决问题的过程中得到一些启发,让计算机自动来做这件事情呢?我们的理念不是先设立好一个模型,然后去做模型拟合,而是主动地选择数据去一点一点地构建想要的模型。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-9f40dafaf529c7fbf1b22efd_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&624& data-rawheight=&350& class=&origin_image zh-lightbox-thumb& width=&624& data-original=&https://pic2.zhimg.com/v2-9f40dafaf529c7fbf1b22efd_r.jpg&&&/figure&&p&对于刚才这个例子来说,按照上面的指导思想,我们可以用如下的方式一点一点地构建公式:首先,我们尝试寻找只有一个变量变化的数据样本。比如,如果能够找到只有时间t变化的那些样本,这个问题就简化了很多。这个时候我们再拿传统的符号回归方法去做,很快就能找到准确的对应该变量的公式。注意,此时我们找到的公式只对应于我们主动选择出的一个数据子集。选择多个这样的数据子集,执行上述过程多次,我们就可以得到一个关于变量t的表达式模板:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-95da1aedafb174af05a83_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&178& data-rawheight=&34& class=&content_image& width=&178&&&/figure&&p&其中,X0和X1是两个未知的数值参数。类似的,对于v0、F和m,我们也可以得到对应的三个表达式模板。这个时候,我们就有了如下图所示的4个表达式模板。然后,利用表达式树对齐和模式匹配,我们就可以把这4个不同的表达式模板合并成如图中红色表达式所示的表达式模板。现在,我们有一个表达式模板和两个未知的数值参数Y0和Y1,同时有很多数据可以用来求解这两个未知参数。我们这时可以非常容易地计算得到我们想要的牛顿力学公式。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-fe3a78ae7d5f1f29faba1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&533& data-rawheight=&293& class=&origin_image zh-lightbox-thumb& width=&533& data-original=&https://pic2.zhimg.com/v2-fe3a78ae7d5f1f29faba1_r.jpg&&&/figure&&p&当然,不是在所有问题上符号学习都可以得到一个完美的公式。如果数据背后根本没有规律,我们就很难找到一个完美对应的数学表达式。大家也许看出来了,在我们可以主动选择数据的条件下,主动式符号回归需要的数据不多,也许只需要几个独立的样本点。&b&当我们可以主动地跟环境做交互或者可以主动地做实验获得所需数据的条件下,符号学习的方法可以取得非常好的效果&/b&。&/p&&p&&br&&/p&&p&这里,我并不是想说符号学习比深度学习更好。当我们面对一些很高维的数据,比如图片或文本时,符号学习的方法至少在目前阶段肯定不如我们神奇的黑盒子——深度学习。另一方面,对于某一些建模问题,符号学习能得到让人类更容易理解的模型。符号学习和机器学习是一种互补的关系:&b&深度学习擅长构建模糊的、高维的隐式数据模型;而符号学习擅长构建精确的、可解释的显式数据模型&/b&。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-e449d3ad6f5ac0fc701c1aa1e0cfdb06_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&860& data-rawheight=&489& class=&origin_image zh-lightbox-thumb& width=&860& data-original=&https://pic3.zhimg.com/v2-e449d3ad6f5ac0fc701c1aa1e0cfdb06_r.jpg&&&/figure&&p&最后,我想告诉大家在可解释和不可解释之间并不存在一条泾渭分明的分割线。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-ddff17c75ef2bfddae1f771_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&623& data-rawheight=&351& class=&origin_image zh-lightbox-thumb& width=&623& data-original=&https://pic2.zhimg.com/v2-ddff17c75ef2bfddae1f771_r.jpg&&&/figure&&p&上图的左边是一个深度神经网络模型,非常简单;右边是一个真实存在的物理公式。我们很难说右边的公式比左边的神经网络模型更容易理解和解释。对于一个神经网络来说,当它的模型简单到只有几个节点的时候,其实就是一个简洁的数学公式,人们甚至可以搞清楚每一维度所代表的含义。而右边这样一个数学表达式,对于我们普通人来说,是非常难理解和解释的。&/p&&hr&&p&&b&作者介绍&/b&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-69fe3c62dd5_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1280& data-rawheight=&960& class=&origin_image zh-lightbox-thumb& width=&1280& data-original=&https://pic2.zhimg.com/v2-69fe3c62dd5_r.jpg&&&/figure&&p&邵斌博士,微软亚洲研究院机器学习组主管研究员。主要研究领域包括机器学习、并行图处理、分布式系统和内存数据库等。邵斌博士于2010年加入微软亚洲研究院,负责微软图数据处理引擎项目(Microsoft Graph Engine)。研究结果发表在SIGMOD、VLDB、ICDE、TPDS等相关领域顶级会议和期刊上。&/p&&p&&/p&
编者按:深度学习的运用常常能为我们解决很多难题,但深度学习的使用需要依托大数据的支持,所得出的模型一般也是不可解释的。在本月初的“微软AI讲堂”西安交通大学站上,微软亚洲研究院主管研究员邵斌向同学们介绍了符号学习的概念并比较了它和深度学习之…
&figure&&img src=&https://pic3.zhimg.com/v2-a93a07ae3ee0efb39c37b_b.jpg& data-rawwidth=&720& data-rawheight=&739& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&https://pic3.zhimg.com/v2-a93a07ae3ee0efb39c37b_r.jpg&&&/figure&&blockquote&李根 发自 上地十街 &br&量子位 报道 | 公众号 QbitAI&/blockquote&&p&百度有很多技术出众又低调隐秘的大牛,有的甚至找不到专属的“百科词条”。&/p&&p&百度副总裁吴海锋,正是其中代表人物。&/p&&p&在&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIzNjc1NzUzMw%3D%3D%26mid%3D%26idx%3D1%26sn%3Dbfea6c4bf54efechksm%3De8d04fe0dfa7c6f62d5add3f06ed7c55de8scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《百度AI人才图鉴》&/a&中,我们说他是百度搜索业务的现任掌舵者、鲜有曝光的12年的老百度,正在承担着百度安身立命的“搜索”的继往开来使命。&/p&&p&但吴海锋是谁?他对百度搜索的进化又有什么看法?对于技术员工成长和团队管理又有哪些经验心得?&/p&&p&在这次量子位的专访中,吴海锋给出答案。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-aba90fcc3662_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&1108& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic3.zhimg.com/v2-aba90fcc3662_r.jpg&&&/figure&&h2&&b&一线技术到百度VP&/b&&/h2&&p&吴海锋2006年浙大硕士毕业,旋即北上加入百度,成为搜索一线技术团队中的一员。&/p&&p&在他加入前的一年,百度刚刚登陆纳斯达克,顶着“中国Google”的概念打造中文搜索引擎,从每一个细节技术上去夯实基础,成为吴海锋在内的技术员工的核心任务。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-b107c0ffac2_b.jpg& data-size=&normal& data-rawwidth=&1080& data-rawheight=&1051& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic3.zhimg.com/v2-b107c0ffac2_r.jpg&&&figcaption&△ 2007年百度七剑客之一郭眈给吴海锋颁季度之星奖&/figcaption&&/figure&&p&吴海锋回忆,当时最主要工作的就是自然语言处理(NLP),做的都是文本理解、语言理解——把人的语言转换成机器的语言,把机器的理解转换成人能看懂的东西。&/p&&p&NLP的工作,吴海锋一做就是7年。&/p&&p&这7年里,他从一线技术,升级为技术管理者,并在2008年,因为阿拉丁(百度搜索开放平台)的推出,荣膺当年“最佳百度人”。&/p&&p&抉择点出现在2013年,吴海锋主动请缨,决定从技术管理者向业务管理者转岗,负责起整个图片搜索业务。&/p&&p&当时来看,这不是一个“聪明”的决定。整个百度正在“跑步转型移动互联网”,而图片搜索又方兴未艾,没有人知道选择新业务意味着什么,更别说主动接受“管理降级”的风险。&/p&&p&然而正是2013年的选择,成为了吴海锋在百度和大搜的转折点。&/p&&p&2014年起,神经网络、深度学习给图像识别带来的作用开始显现,图片搜索也开始成为百度搜索的新核心,吴海锋也跟着接管整个百度大搜工程架构团队,又一年,整个产品团队也归入他的管理文档中。&/p&&p&由此开始,吴海锋开始成为百度搜索的技术领头人。然后在2016年年底全权掌舵,从商业模式、生态,再到产品全局,以更高层级去决策整个百度最重要的搜索业务方向。&/p&&p&作为嘉奖,吴海锋拿到了2017年的“百度总裁特别奖”。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-65850eee96d5a0f761a2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&780& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic3.zhimg.com/v2-65850eee96d5a0f761a2_r.jpg&&&/figure&&h2&&b&搜索进化三时代&/b&&/h2&&p&从一线技术到掌管百度核心业务的副总裁,这其中有吴海锋的个人奋斗,也离不开搜索在历史进程中的进化。&/p&&p&吴海锋附议李彦宏的观点,以PC、移动和AI三个大时代去看搜索变化。&/p&&ul&&li&第一阶段是PC时代,无论是整个搜索,还是百度业务,都经历了一个从内容匮乏到资源丰富的阶段,在这个阶段中,百度推出了贴吧、百科、MP3等产品。&/li&&li&第二阶段是移动互联网阶段。依然从资源缺乏到内容大丰富,但与PC时代不同,移动时代的核心问题是如何将PC资源向移动实现转型。于是在移动大势下,百度对搜索的认知不再是连接人与信息,还要连接人与服务——智能手机的爆发,让更多服务随之成为可能。&/li&&li&第三阶段即AI时代。吴海锋认为它刚刚崭露头角,这个时代下,智能交互形式将更加多样,于是更丰富的智能硬件、更多样的搜索渠道和产品载体,也将成为可能。&/li&&/ul&&p&即便本质依然是搜索,但这位搜索老兵判断,AI时代的搜索,外形概念将不再重复固有足迹。&/p&&p&对于搜索的本质,吴海锋有自己的理解,他认为搜索的产品本质在于连接,一端是用户,另一端是用户表达的需求,以及整个信息世界。&/p&&p&不论是PC、移动互联网,还是AI时代,中间技术有不同,但本质并未发生改变,而且在“前AI时代”里,搜索就在解决大量的NLP问题,所以实际上也能以最常见的AI产品视之。&/p&&p&然而在PC和移动时代,AI尚是冷门,NLP也未受到广泛关注。但就在这个阶段的积蓄中,用户表达和需求,都发生了变化。&/p&&p&一是搜索表达从专业化走向口语化。以前的搜索query可能是“电脑”、“开机”和“蓝屏”,但如今用户更愿意直接键入“电脑开机蓝屏怎么办呀”,对于搜索的智能有了进一步要求。&/p&&p&另一方面是人机交互。不再是键盘和文字,从图片、视频到语音,新的交互驱动了搜索生态的变化,以及搜索能力的进化。&/p&&p&如何看待这种进化?&/p&&p&吴海锋举例说,PC时代的诉求是前10条满足用户,移动时代的诉求是4-5条(一个手机屏幕),到现在的追求是1条准确回答用户。&/p&&p&而且更具挑战的是,基础数据在疯狂扩张,需要运用新技术、新架构去促进搜索引擎的发展。&/p&&p&这种新技术、新架构,实际就是AI。&/p&&p&吴海锋回忆,2014年开始,百度内部围绕整个底层系统做了一次大规模机器学习的架构拓展——从计算能力上让整个搜索系统的AI能力上一个台阶,做了一次彻底的系统迭代。&/p&&p&其后才有了产品上的极速搜索、Instant search。也是从那时开始,机器学习、深度学习开始更广泛运用到百度搜索技术中,带来了搜索速度上本质性地提升。&/p&&p&不过,吴海锋也认为,更激动人心的技术时代正在徐徐展开,如果说他是伴随中文搜索成长起来的一代,那AI也同样带来更重大的机会,他认定技术小伙伴们可以好风凭借力。&/p&&h2&&b&技术创新心路历程&/b&&/h2&&p&从应届毕业的一线技术员工,12年里成为执掌最大中文搜索引擎的VP,吴海锋对自己这一路的心路历程,也立足此时进行了总结。&/p&&p&他归结为以下几点:&/p&&ul&&li&第一,技术信仰。无论是NLP,还是图片搜索,都在进行当时技术边界的突破。他们没有实际业务,也没有线上指标可参照,满足感完全来自技术上的创新,如果不是对技术深怀敬畏和信仰,无法走到今天。&br&同时,百度的技术基因,以及大平台之上的开放驱动力,也在为这种技术创新提供土壤,虽然NLP技术不直接展现在某项业务中,但从王梦秋(曾任百度技术副总裁)带队时开始,技术团队的发展规划就都在全公司业务规划中,于是团队能获得更多资源,有更好发展。&/li&&li&第二是创新焦虑感。从成为技术团队leader开始,整个团队和业务发展的压力都不小,这个阶段里“逆水行舟不进则退”,如果一个基础技术团队不能持续创新、提供新东西,就可能失去持续价值,所在这这些年里,吴海锋坚持每年都要有新技术探索,每年都要投入人力创造新价值。&/li&&li&第三,拥抱变化。在2013年看到搜索的挑战后,吴海锋主动请缨转岗,舍弃NLP方面的一些管理权,把更多精力投入当时方兴未艾的图搜新业务中。他回忆说,那时只是希望打破自己天花板,但也是尝试拥抱变化,从一个新技术开始,探索出应用和商业模式,会让成就感得到更大满足。&/li&&li&最后是时代机遇。从2006年毕业即加入百度,到今日成为最大中文搜索引擎的掌舵者,吴海锋认为整个百度成长的过程,也是他们这一批技术人的成长过程,时代提供了一个绝佳的平台和机会,让个体可以实现快速成长。&/li&&/ul&&p&如今的吴海锋还会常常想起刚加入百度时的时光,那时候单身、家近,整日整夜埋头在公司,凌晨1、2点都是常事,通宵达旦也不在少数,大家都怀抱着对于技术变革的信仰和热情。&/p&&p&而恰好身处时代机遇里,06、07年入职百度的他们,现在都是各技术和业务线上的中坚。&/p&&p&不过吴海锋也强调,时代转关,时代浪潮一浪接一浪,现在AI狂飙突进,会有更大的机会属于新一拨技术信仰者。&/p&&p&Seize your Moment.&/p&&p&— &b&完&/b& —&/p&&p&欢迎大家关注我们的专栏:&a href=&https://zhuanlan.zhihu.com/qbitai& class=&internal&&量子位 - 知乎专栏&/a&&/p&&p&诚挚招聘&/p&&p&量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。&/p&&p&&a href=&https://zhuanlan.zhihu.com/qbitai& class=&internal&&量子位 QbitAI&/a& · 头条号签约作者&/p&&p&?'?' ? 追踪AI技术和产品新动态&/p&
李根 发自 上地十街 量子位 报道 | 公众号 QbitAI百度有很多技术出众又低调隐秘的大牛,有的甚至找不到专属的“百科词条”。百度副总裁吴海锋,正是其中代表人物。在中,我们说他是百度搜索业务的现任掌舵者、鲜有曝光的12年的老百度,正…
&figure&&img src=&https://pic2.zhimg.com/v2-adb0e02348bd_b.jpg& data-rawwidth=&960& data-rawheight=&564& class=&origin_image zh-lightbox-thumb& width=&960& data-original=&https://pic2.zhimg.com/v2-adb0e02348bd_r.jpg&&&/figure&&p&终于完成了博士论文答辩。多谢各位的支持与鼓励!答辩talk非常成功,视频在这里(音效好像不太好,见谅)。首页图片是实验室朋友准备的礼物,用&a href=&http://link.zhihu.com/?target=http%3A//places2.csail.mit.edu/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Places&/a&图片组成的头像,it makes my day!&/p&&p&&b&Interpretable Representation Learning for Visual Intelligence.&/b&&/p&&p&Youtube link: &a href=&http://link.zhihu.com/?target=https%3A//www.youtube.com/watch%3Fv%3DJ7Zz_33ZeJc& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&youtube.com/watch?&/span&&span class=&invisible&&v=J7Zz_33ZeJc&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&Download link: &a href=&http://link.zhihu.com/?target=http%3A//places.csail.mit.edu/bolei_defense.mp4& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&places.csail.mit.edu/bo&/span&&span class=&invisible&&lei_defense.mp4&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&后面会再写一篇文章总结自己博士求学的心得体会。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-23f6d9e0472b090b8f13_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&960& data-rawheight=&720& class=&origin_image zh-lightbox-thumb& width=&960& data-original=&https://pic4.zhimg.com/v2-23f6d9e0472b090b8f13_r.jpg&&&/figure&&p&&/p&
终于完成了博士论文答辩。多谢各位的支持与鼓励!答辩talk非常成功,视频在这里(音效好像不太好,见谅)。首页图片是实验室朋友准备的礼物,用图片组成的头像,it makes my day!Interpretable Representation Learning for Visual Intelligence.Youtu…
&figure&&img src=&https://pic3.zhimg.com/v2-013dded4559ceac8afb6ce_b.jpg& data-rawwidth=&700& data-rawheight=&233& class=&origin_image zh-lightbox-thumb& width=&700& data-original=&https://pic3.zhimg.com/v2-013dded4559ceac8afb6ce_r.jpg&&&/figure&&p&GIF(graphics interchange format,图片交换格式)的年纪比不少读者的年龄都大,算得上是早期互联网的产物。不过这种体积小、兼容性好还自带魔性效果的图片格式,至今都广受欢迎,从表情包到动图演示都能看到它的身影。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-e1bf57a43_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&459& data-rawheight=&28& data-thumbnail=&https://pic2.zhimg.com/v2-e1bf57a43_b.jpg& class=&origin_image zh-lightbox-thumb& width=&459& data-original=&https://pic2.zhimg.com/v2-e1bf57a43_r.jpg&&&/figure&&p&你有没有想过,去哪里找到更多的 GIF 资源?这些有趣的 GIF 图片是怎样做出来的?你想不想也自己做一些 GIF?本文就教你关于 GIF 的许多使用技巧。&/p&&p&更多技巧,请浏览专题 &a href=&https://link.zhihu.com/?target=https%3A//sspai.com/topic/190& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GIF 还能这么玩&/a&。&/p&&h2&斗图就用这些工具&/h2&&p&微信和 QQ 自带的表情包虽然很丰富,但是总容易「撞表情」,这在表情包大战中可不是什么好事。不如去别的地方找一些更有个性的 GIF。&/p&&p&想要「为所欲为」的你,在这些免费的网站里都能找到颇有气势的表情包:&/p&&ul&&li&&a href=&https://link.zhihu.com/?target=https%3A//sorry.xuty.tk/sorry/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Sorry! 在线生成&/a&&/li&&li&&a href=&https://link.zhihu.com/?target=https%3A//weibo.com/tokiwatsuki& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Reverse Gif 倒放&/a&&/li&&li&&a href=&https://link.zhihu.com/?target=http%3A//www.soogif.com/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Soogif&/a&&/li&&li&&a href=&https://link.zhihu.com/?target=http%3A//www.uupoop.com/gif/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Uupoop 动图编辑器&/a&&/li&&li&……&/li&&/ul&&figure&&img src=&https://pic4.zhimg.com/v2-841efd337669fda3b8fc7e9bc520d5f6_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&236& data-rawheight=&132& data-thumbnail=&https://pic4.zhimg.com/v2-841efd337669fda3b8fc7e9bc520d5f6_b.jpg& class=&content_image& width=&236&&&/figure&&p&不过,网上的资源虽然多,但自制的 GIF 更有趣,特别是在确保不会被揍的前提下,你一定不会放过把朋友变成表情包的机会。下面的工具就是为「不安分」的你准备的
&/p&&p&不想「好好说话」的你,可以让 &a href=&https://link.zhihu.com/?target=http%3A//www.gifntext.com/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Gifntext&/a& 帮你说。它是一个网页版的 GIF 制作工具,里面的表情包模板都比较新,你要做的只是选模板、加字幕并做一些调节,一段毫无违和感的 GIF 就诞生了。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-3f403542dfebfc955ae0_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1120& data-rawheight=&738& class=&origin_image zh-lightbox-thumb& width=&1120& data-original=&https://pic1.zhimg.com/v2-3f403542dfebfc955ae0_r.jpg&&&/figure&&p&推荐阅读:&/p&&ul&&li&&a href=&https://link.zhihu.com/?target=https%3A//sspai.com/post/44062& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&自从把这些网站添加到收藏夹,我的 GIF 「斗图」就从来没输过&/a&&/li&&li&&a href=&https://link.zhihu.com/?target=https%3A//sspai.com/post/43899& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&代替那些「用完就删」的 App,试试这 9 个实用的网页小工具&/a&&/li&&/ul&&h2&全能 GIF 制作工具&/h2&&p&除了表情包,许多文章里都有演示操作、展示效果的 GIF 动图,可以让文章显得更加直观,并带上一点专业的气息。其实,这些「高端」的 GIF 动图你也能自己做。&/p&&p&工欲善其事,就要找到趁手的工具。幸运的是,几乎任何平台上都有 GIF 制作工具,人类对于 GIF 的热爱可见一斑。即使是相对封闭的 iOS 上,在支持录屏之后,GIF 制作的便利程度也大大提高。&/p&&p&自己从头制作一张好的 GIF 动图,一般只需要几个步骤:&/p&&ul&&li&选好素材,清晰度尽量高;&/li&&li&调整画面尺寸、播放速度等细节参数;&/li&&li&配上文字,让 GIF 更易懂。&/li&&/ul&&p&下面文章中推荐的工具,都能完成这一套 GIF 制作流程,你可以依据自己的操作系统进行选择。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-5059dadba2e46dc27cc0_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1120& data-rawheight=&647& class=&origin_image zh-lightbox-thumb& width=&1120& data-original=&https://pic4.zhimg.com/v2-5059dadba2e46dc27cc0_r.jpg&&&/figure&&p&推荐阅读:&/p&&ul&&li&&a href=&https://link.zhihu.com/?target=https%3A//sspai.com/post/42583& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&在手机上制作动图从未那么轻松:GIF Toaster | App+1&/a&&/li&&li&&a href=&https://link.zhihu.com/?target=https%3A//sspai.com/post/40556& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Windows 平台小巧绿色的 Gif 录制软件:ScreenToGif丨App+1&/a&&/li&&li&&a href=&https://link.zhihu.com/?target=https%3A//sspai.com/post/33188& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&想做 GIF ?这一个应用就够了:ImgPlay&/a&&/li&&li&&a href=&https://link.zhihu.com/?target=https%3A//sspai.com/post/31706& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&功能全面,也易于上手:Mac 动图制作工具 GIF Brewery 3&/a&&/li&&/ul&&h2&GIF 也能玩出艺术感&/h2&&p&想象一下,你正在刷推或者刷微博,忽然在一堆晒娃照和饕餮照中出现一张画风迥异的 GIF,一下子就吸引了你的注意力。人类都是视觉动物,如果你想在社交网络上获得更多的「赞」,不如做一张具有艺术感的 GIF 吧。&/p&&p&Werble 并没有丰富的滤镜、复杂的参数调整,但它内置了大量现成的动画特效,可以快速让你的照片变成酷炫的 GIF。你要做的,基本只是选好特效模板、配上照片,完成。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-7abceccdec_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&270& data-rawheight=&270& data-thumbnail=&https://pic4.zhimg.com/v2-7abceccdec_b.jpg& class=&content_image& width=&270&&&/figure&&p&如果你想找到玩 GIF 的同好,可以来 &a href=&https://link.zhihu.com/?target=https%3A//itunes.apple.com/cn/app/%25E4%25B8%%2597%25AA-vlog-%25E5%2589%25AA%25E8%25BE%%25B8%258E%25E8%25A7%%25A2%%25BB%25A4%25E9%C/id%3Fmt%3D8%26at%3D10lJSw& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&一闪 Onetake&/a& 逛逛,这个 App 自带了图片分享社区,你可以找到有趣的 GIF 创作爱好者。当然,一闪本身制作 GIF 的体验也不错,你可以直接把 Live Photo 或多张静态2照片转成 GIF,上手成本较低。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-4d4d18b315d4ccf0b545_b.jpg& data-caption=&& data-size=&small& data-rawwidth=&750& data-rawheight=&749& data-thumbnail=&https://pic4.zhimg.com/v2-4d4d18b315d4ccf0b545_b.jpg& class=&origin_image zh-lightbox-thumb& width=&750& data-original=&https://pic4.zhimg.com/v2-4d4d18b315d4ccf0b545_r.jpg&&&/figure&&p&推荐阅读:&/p&&ul&&li&&a href=&https://link.zhihu.com/?target=https%3A//sspai.com/post/42704& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&觉得静态照片不够酷?快用这款 App 让它们动起来:Werble&/a&&/li&&li&&a href=&https://link.zhihu.com/?target=https%3A//sspai.com/post/36625& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&动图社交,从未如此轻松有趣:一闪 Onetake&/a&&/li&&/ul&&h2&学会压缩 GIF&/h2&&p&做好 GIF 之后,你正兴冲冲地准备上传,忽然发现根本没法提示「体积太大无法上传」,这足够让人抓狂。别着急,有办法把 GIF 压缩得非常小。&/p&&p&多数的 GIF 制作工具都可以调节参数,比如上文介绍过的 GIF Brewery、GIF Toaster 就能压缩颜色和分辨率,牺牲一定的画质带来小巧的体积。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-ed71f40c6bbfde55efaf1e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1015& data-rawheight=&483& class=&origin_image zh-lightbox-thumb& width=&1015& data-original=&https://pic3.zhimg.com/v2-ed71f40c6bbfde55efaf1e_r.jpg&&&/figure&&p&如果你需要进一步的压缩,还可以考虑这个终极武器——&a href=&https://link.zhihu.com/?target=https%3A//www.lcdf.org/gifsicle/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Gifsicle&/a&。这是一个可以自由调节压缩率的 GIF 压缩工具,只有命令行版本,对新手不友好;但是 @Minja 为它做了一个 Automator 版本,把动图拖到 Automator App 的图标上就能够压缩了。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-eeea72d94ac728dc48b99bb7_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&158& data-rawheight=&86& data-thumbnail=&https://pic4.zhimg.com/v2-eeea72d94ac728dc48b99bb7_b.jpg& class=&content_image& width=&158&&&/figure&&p&&a href=&https://link.zhihu.com/?target=https%3A//github.com/BlackwinMin/sspai-sample-script/blob/master/Automator/gifsicle.app.zip& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Automator App 下载
&/a&&/p&&p&虽说压缩完的 GIF 多少会损失一些画质,但有时候画面略显粗糙的 GIF 动图反倒有一股魔性,君不见的那些在朋友圈里刷屏的表情包往往都「自带马赛克和卡顿」。只要不影响展示内容,我们还是欢迎小体积的 GIF 的。&/p&&p&推荐阅读:&/p&&ul&&li&&a href=&https://link.zhihu.com/?target=https%3A//sspai.com/post/42916& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&这样压缩 GIF,体积小还效果好&/a&&/li&&/ul&&p&GIF 的玩法非常多样,这里只是其中的一部分。想变成 GIF 达人,不要错过少数派的专题 &a href=&https://link.zhihu.com/?target=https%3A//sspai.com/topic/190& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GIF 还能这么玩&/a&。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-55ff4a4eaf6fa759eff446cec66993a6_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&600& data-rawheight=&137& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic3.zhimg.com/v2-55ff4a4eaf6fa759eff446cec66993a6_r.jpg&&&/figure&&p&&/p&
GIF(graphics interchange format,图片交换格式)的年纪比不少读者的年龄都大,算得上是早期互联网的产物。不过这种体积小、兼容性好还自带魔性效果的图片格式,至今都广受欢迎,从表情包到动图演示都能看到它的身影。你有没有想过,去哪里找到更多的 GIF…
&figure&&img src=&https://pic3.zhimg.com/v2-a556ae3de886ff7c87a26a7da4832077_b.jpg& data-rawwidth=&1318& data-rawheight=&741& class=&origin_image zh-lightbox-thumb& width=&1318& data-original=&https://pic3.zhimg.com/v2-a556ae3de886ff7c87a26a7da4832077_r.jpg&&&/figure&英国人不仅会做饭,写代码还押韵。(大误,手动删除线)&p&&u&李林 编译整理&br&量子位 报道 | 公众号 QbitAI&/u&&/p&&p&我们想说的英国人,是Google旗下人工智能公司DeepMind。他们今天宣布开源神经网络库&a href=&https://link.zhihu.com/?target=https%3A//github.com/deepmind/sonnet& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Sonnet&/a&,该库使用了类似Torch/NN的面向对象的方法。&/p&&p&Sonnet是在TensorFlow上运行的一个高级库,类似于Keras。在Sonnet里写的模型可以和TensorFlow代码或其他高级库的代码混合。&/p&&p&DeepMind对这个库进行了优化,以便实验时更容易在不同模型间切换。为此,DeepMind团队对TensorFlow做了修改,好让它更容易将模型视为层次结构,另外,他们还增加了变量共享的透明度。&/p&&p&开源Sonnet之后,DeepMind想要开源其他项目会更加容易。这家公司在博客上表示,以后开源的项目都会展示在自己的开源目录页面(&a href=&https://link.zhihu.com/?target=https%3A//deepmind.com/research/open-source/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&deepmind.com/research/o&/span&&span class=&invisible&&pen-source/&/span&&span class=&ellipsis&&&/span&&/a&)上。&/p&&p&如果你看Sonnet的代码觉得眼熟,可能是因为认真研究过DeepMind的论文:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learning to learn by gradient descent by gradient descent&/a&,&a href=&https://link.zhihu.com/?target=https%3A//github.com/deepmind/learning-to-learn& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&随这篇论文发布的开源代码&/a&就包含Sonnet的一个早期雏形。&/p&&p&最后,容量子位吐个槽:&/p&&p&你们这些英国人啊,把TensorFlow用出了自己的风格。&/p&&p&However,写个软件库居然起名叫十四行诗?你们写代码押韵么?┑( ̄Д  ̄)┍&/p&&blockquote&&p&今天AI界还有哪些事值得关注?在量子位(QbitAI)公众号会话界面回复“今天”,看我们全网搜罗的AI行业和研究动态。笔芯?&/p&另外,如果你正在研究机器学习,欢迎加量子位小助手的微信qbitbot,并注明“加入门群”,小助手会拉你进群。&/blockquote&
英国人不仅会做饭,写代码还押韵。(大误,手动删除线)李林 编译整理 量子位 报道 | 公众号 QbitAI我们想说的英国人,是Google旗下人工智能公司DeepMind。他们今天宣布开源神经网络库,该库使用了类似Torch/NN的面向对象的方法。Sonnet是在TensorFlo…
&figure&&img src=&https://pic2.zhimg.com/v2-ed043b90e1414afceed66bfcda876e2e_b.jpg& data-rawwidth=&1280& data-rawheight=&508& class=&origin_image zh-lightbox-thumb& width=&1280& data-original=&https://pic2.zhimg.com/v2-ed043b90e1414afceed66bfcda876e2e_r.jpg&&&/figure&&p&选自HEARTBEAT,作者:Ishan Sharma,机器之心编译。&/p&&blockquote&基于树的学习算法在数据科学竞赛中相当常见。这些算法给预测模型赋予了准确性、稳定性以及易解释性。其中,决策树算法也是引人关注的「随机森林」算法的基础构造模块。本文介绍了决策树的概念和简单实现,使用生动的示例帮助理解,希望能够对你有所帮助。&/blockquote&&figure&&img src=&https://pic3.zhimg.com/v2-db133bf7fcbd59bea0da745_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&720& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic3.zhimg.com/v2-db133bf7fcbd59bea0da745_r.jpg&&&/figure&&p&从 Kaggle 到课堂,机器学习第一课就是决策树。之所以关注决策树,是因为与其他 ML 方法相比,决策树的数学复杂度不高,同时能为分类问题提供足够的精度。&/p&&p&对于 ML 的入门者来说,决策树很容易上手。本教程将介绍:&/p&&ul&&li&决策树是什么&/li&&li&如何构建决策树&/li&&li&使用 Python 构建决策树&/li&&/ul&&p&&br&&/p&&h2&&b&决策树是什么&/b&&/h2&&p&我们跳过正式定义,从概念上了解一下决策树。试想你坐在办公室里,感觉自己饿了,想出去吃点东西,但是午餐要下午 1 点才开始。那么你怎么办呢?当然,你会看一下时间,然后决定能否出去。你可以按照以下逻辑进行思考:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-b0df06cd0c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&810& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic4.zhimg.com/v2-b0df06cd0c_r.jpg&&&/figure&&p&我们刚刚搭了一个决策树!这是一个简单的版本,但我们可以通过加入天气、成本等因素构建一个更为复杂的决策树。如果你想和你的朋友 Jon Snow 去一家中餐馆吃午饭,决策逻辑可以这样表示:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-86d1f39ebd7c1ea112283db_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&810& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic2.zhimg.com/v2-86d1f39ebd7c1ea112283db_r.jpg&&&/figure&&p&这也是一个决策树。从顶部开始,循着描述当前状况的路线一路向下,直到做出决定。&/p&&p&&br&&/p&&h2&&b&注意事项&/b&&/h2&&p&我们把场景切换到计算机世界。我们刚刚画的每一个框叫做一个节点。最上面的节点叫做根节点,下面每层的节点叫做叶节点,可以把它想成现实世界中的一棵树,但是根朝上。&/p&&p&每个节点测试我们的世界(数据集)中的某个属性,从节点引出的每个分支对应于该属性的值。给定一棵决策树,决策过程如下:&/p&&ol&&li&从根节点开始&/li&&li&观察根节点属性的值&/li&&li&按照与观察值对应的路径往下走&/li&&li&重复以上步骤,直至到达叶节点,这样就能做出决策&/li&&/ol&&p&&br&&/p&&h2&&b&如何构建决策树?&/b&&/h2&&p&构建决策树不需要从头开始(除非你是一个像我一样的学生)。尽管如此,这也是一个很好的学习经验,你将学到一些有趣的概念。&/p&&p&构建决策树最常用的算法是 ID3,该算法非常简单。以下是算法伪代码:&/p&&p&&br&&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&ID3 (Examples, Target_Attribute, Attributes)
Create a root node for the tree
If all examples are positive, Return the single-node tree Root, with label = +.
If all examples are negative, Return the single-node tree Root, with label = -.
If Atributes list is empty, then Return the single node tree Root,
with label = most common value of the target attribute in the examples.
Otherwise Begin
A ← The Attribute that best classifies examples.
Decision Tree attribute for Root = A.
For each possible value, vi, of A,
Add a new tree branch below Root, corresponding to the test A = vi.
Let Examples(vi) be the subset of examples that have the value vi for A
If Examples(vi) is empty
Then below this new branch add a leaf node with label = most common target value in the examples
Else below this new branch add the subtree ID3 (Examples(vi), Target_Attribute, Attributes – {A})
Return Root
&/code&&/pre&&/div&&p&你将注意到这样一个细节:在循环开始之后,算法必须选择一个属性,为样本分类选出最佳方案。那么算法会怎么做呢?为了理解这一点,我们必须深入了解一些数学知识。别担心,不会太难。&/p&&p&&br&&/p&&h2&&b&信息增益和熵&/b&&/h2&&p&信息增益是选择最佳属性常用且容易上手的方法之一。它使用另一种叫做熵的属性计算出来。&/p&&p&熵是物理学和数学中的概念,指系统的随机性或混乱度。在信息论中,它指的是一组样本的混乱度。&/p&&p&我们通过一个例子来说明:你有两个装满巧克力的袋子。巧克力有红的也有蓝的。你想通过计算巧克力的数量来测量袋子的熵。所以你坐下来开始数。2 分钟后,你发现第一袋有 50 块巧克力。其中 25 块是红色的,25 块是蓝色的。第二袋也有 50 块巧克力,都是蓝色的。&/p&&p&在这种情况下,第一个袋子的熵是 1,因为里面的巧克力呈均匀分布。第二个袋子的熵为零,因为里面的巧克力没有随机性。&/p&&p&我们用下面这个公式计算一个系统的熵:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-b644b39767_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&600& data-rawheight=&158& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic1.zhimg.com/v2-b644b39767_r.jpg&&&/figure&&p&在这个公式中,c 代表类别或属性的总数,p_i 代表属于第 i 类的样本数量。是不是有点懵?我们通过例子了解一下:&/p&&p&让我们回到刚刚的巧克力袋子。我们有两个类别:红色(R)和蓝色(B)。第一个袋子里有 25 块红色巧克力。巧克力总数是 50。因此,p_i=25/50。蓝色类别也是这样处理。把这些值代入熵方程,我们得到以下结果:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-cd7d802ee811b02da1af7_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&724& data-rawheight=&130& class=&origin_image zh-lightbox-thumb& width=&724& data-original=&https://pic3.zhimg.com/v2-cd7d802ee811b02da1af7_r.jpg&&&/figure&&p&解方程,结果如下:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-beda80ae2fa12f5bdda869_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&842& data-rawheight=&658& class=&origin_image zh-lightbox-thumb& width=&842& data-original=&https://pic3.zhimg.com/v2-beda80ae2fa12f5bdda869_r.jpg&&&/figure&&p&如果想验证结果或尝试其他例子,请移步 Wolfram Alpha:&a href=&https://link.zhihu.com/?target=http%3A//www.wolframalpha.com/input/%3Fi%3D-%%29log2%%29%2B-%2B%%29log2%%29%25E3%& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&http://www.wolframalpha.com/input/?i=-(25%2F50)log2(25%2F50)+-+(25%2F50)log2(25%2F50)。&/a&&/p&&p&继续计算第二个袋子的熵,里面有 50 块红色巧克力,0 块蓝色巧克力。得到的熵是 0。&/p&&p&如果你理解这个概念,太好了!我们现在转到信息增益。&/p&&p&&br&&/p&&h2&&b&信息增益&/b&&/h2&&p&信息增益是由基于给定属性的样本分割导致的熵下降。从数学角度上看,信息增益的定义为:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-282c6c06b6bd1ae7baba_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1048& data-rawheight=&174& class=&origin_image zh-lightbox-thumb& width=&1048& data-original=&https://pic2.zhimg.com/v2-282c6c06b6bd1ae7baba_r.jpg&&&/figure&&p&S 代表整个样本集,A 代表我们想要分割的属性。|S| 代表样本数量,|Sv| 表示属性 A 当前值的样本数量。&/p&&p&仍然很复杂,是不是?那我们举个例子,看看它的工作流程。&/p&&p&&br&&/p&&h2&&b&构建决策树&/b&&/h2&&p&首先,给巧克力的例子添加一些细节。我们已经知道袋 1 中有 25 块红色巧克力、25 块蓝色巧克力。现在,我们还要考虑巧克力的品牌。红色巧克力中,有 15 块是士力架,10 块是 Kit Kat 牌。蓝色巧克力中,20 块是 Kit Kat 牌,5 块是士力架。假设我们只想吃红色的士力架。那么这里,红色士力架(15)是正例,其他的巧克力(如红色 Kit Kat 和蓝色士力架)都是负例。&/p&&p&现在,与我们的类别(吃/不吃)相关的数据集的熵是:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-8fda6ffb9e987_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&337& data-rawheight=&106& class=&content_image& width=&337&&&/figure&&p&现在我们来回顾一下,我们有 50 块巧克力。如果只看属性「颜色」,则我们有 25 个红色的、25 个蓝色的。如果看属性「品牌」,则我们有 20 块士力架、30 块 Kit Kat 巧克力。&/p&&p&为了构建决策树,我们需要选择其中一个属性作为根节点。我们想要选择具备最高信息增益的属性。现在我们来计算这些属性的信息增益。&/p&&p&颜色相关的信息增益是:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-fcdd1a0196035_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&728& data-rawheight=&160& class=&origin_image zh-lightbox-thumb& width=&728& data-original=&https://pic3.zhimg.com/v2-fcdd1a0196035_r.jpg&&&/figure&&p&我们刚才计算了与类别相关的巧克力的熵,是 0.8812。如果我们想吃 15 块士力架而不是 10 块 Kit Kat,则红色巧克力的熵是:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-92ca9be448b1d871b7bf02ab_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&436& data-rawheight=&91& class=&origin_image zh-lightbox-thumb& width=&436& data-original=&https://pic4.zhimg.com/v2-92ca9be448b1d871b7bf02ab_r.jpg&&&/figure&&p&如果我们不想吃蓝色巧克力,则熵为 0。&/p&&p&我们的信息增益计算就变成了:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-b1b146d22b3e779a81e8cdf9_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&679& data-rawheight=&80& class=&origin_image zh-lightbox-thumb& width=&679& data-original=&https://pic4.zhimg.com/v2-b1b146d22b3e779a81e8cdf9_r.jpg&&&/figure&&p&如果我们分割颜色,则信息增益是 0.3958。&/p&&p&现在我们来看下品牌。如果我们想吃 15 块士力架(共有 20 块),不想吃 Kit Kat。则士力架的熵是:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-778e67dfee51e77428fa83_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&418& data-rawheight=&89& class=&content_image& width=&418&&&/figure&&p&如果我们不吃 Kit Kat,则熵为 0。信息增益为:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-8d966f952fc063b13e1c2b4bc6857bb2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&628& data-rawheight=&99& class=&origin_image zh-lightbox-thumb& width=&628& data-original=&https://pic3.zhimg.com/v2-8d966f952fc063b13e1c2b4bc6857bb2_r.jpg&&&/figure&&p&品牌分割的信息增益是 0.5567。&/p&&p&由于品牌的信息增益较大,我们将基于品牌进行分割。下一级,我们只要左边的颜色。我们可以轻松地根据颜色进行分割,无需进行任何计算。决策树如下:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-58eef390d534bb30e544_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&810& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic4.zhimg.com/v2-58eef390d534bb30e544_r.jpg&&&/figure&&p&谁能想到吃块巧克力这么难呢?&/p&&p&现在你应该了解决策树的运行原理了。&/p&&p&&br&&/p&&h2&&b&使用 Python 3 实现决策树&/b&&/h2&&p&现在我们继续为巧克力数据集构建决策树。&/p&&p&代码和数据地址:&a href=&https://link.zhihu.com/?target=https%3A//github.com/ishansharma/decision_trees_tutorial/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&github.com/ishansharma/&/span&&span class=&invisible&&decision_trees_tutorial/&/span&&span class=&ellipsis&&&/span&&/a&&/p&&ol&&li&创建新文件夹。&/li&&li&从 GitHub 下载 data.csv(&a href=&https://link.zhihu.com/?target=https%3A//github.com/ishansharma/decision_trees_tutorial/blob/master/data.csv& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&github.com/ishansharma/&/span&&span class=&invisible&&decision_trees_tutorial/blob/master/data.csv&/span&&span class=&ellipsis&&&/span&&/a&)。&/li&&li&你可能需要安装 Scipy、Scikit-Learn 和 Pandas,如果没有安装的话。我推荐使用虚拟环境,参见:&a href=&https://link.zhihu.com/?target=http%3A//docs.python-guide.org/en/latest/dev/virtualenvs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&docs.python-guide.org/e&/span&&span class=&invisible&&n/latest/dev/virtualenvs/&/span&&span class=&ellipsis&&&/span&&/a&。从终端运行以下命令行,安装 Pandas 和 Scikit-Learn:&/li&&/ol&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&pip install scikit-learn
pip install scipy
pip install pandas
&/code&&/pre&&/div&&p&4. 安装后,创建新文件 decision_tree.py,并将以下两行添加进去:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&from pandas import read_csv
from sklearn import tree
&/code&&/pre&&/div&&p&5. 使用 Pandas 加载数据:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&data = read_csv(&data.csv&)
&/code&&/pre&&/div&&p&6. Pandas 可以处理大型数据集,且具备大量可视化功能。它在使用 Python 的大数据流程中广泛使用,因此使用 Pandas 是个好主意。在 Pandas 中你可以使用 head() 方法快速查看加载数据:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&print(data.head())
&/code&&/pre&&/div&&p&下图显示了数据的前 5 行。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-bacfb41fad4a36cdc22d06_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&390& data-rawheight=&202& class=&content_image& width=&390&&&/figure&&p&7. 我使用 Class 列来确定我们是否想吃巧克力。1 代表吃,0 代表不吃。&/p&&p&8. 接下来,我们需要对数据执行一些预处理。Scikit-Learn 默认不支持文本标签,因此我们使用 Pandas 将文本标签转换成数字。只需要添加以下两行:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&data['Color'] = data['Color'].map({'Red': 0, 'Blue': 1})
data['Brand'] = data['Brand'].map({'Snickers': 0, 'Kit Kat': 1})
&/code&&/pre&&/div&&p&9. 刚才我们改变了 Color 属性,用 0 代表红色,1 代表蓝色。类似地,在 Brand 列中,我们用 0 替代士力架,用 1 替换 Kit Kat。&/p&&p&10. 如果你使用 head() 查看数据集,你将看到品牌和颜色的值已经变成了整数:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-3a74c4b137_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&344& data-rawheight=&188& class=&content_image& width=&344&&&/figure&&p&11. 最后,按惯例用 X 表示训练属性,Y 表示输出类别,因此我们执行以下命令:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&predictors = ['Color', 'Brand']
X = data[predictors]
Y = data.Class
&/code&&/pre&&/div&&p&12. 差不多完成了。我们现在已经准备好训练决策树了。添加以下两行在我们的数据上训练决策树:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&decisionTreeClassifier = tree.DecisionTreeClassifier(criterion=&entropy&)
dTree = decisionTreeClassifier.fit(X, Y)
&/code&&/pre&&/div&&p&13. 完成了吗?我们对决策树进行快速可视化。添加下列行,并运行程序:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&dotData = tree.export_graphviz(dTree, out_file=None)
print(dotData)
&/code&&/pre&&/div&&p&14. 输出如下:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-afc669cf1ca7ce062d4d1e9c41b67f71_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&377& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic1.zhimg.com/v2-afc669cf1ca7ce062d4d1e9c41b67f71_r.jpg&&&/figure&&p&15. 复制输出,访问 WebGraphviz (&a href=&https://link.zhihu.com/?target=http%3A//www.webgraphviz.com/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&webgraphviz.com/&/span&&span class=&invisible&&&/span&&/a&) 并粘贴输出,点击 Generate Graph。你讲看到一个与上文决策树类似的决策树:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-7c7b58b8ec7f0d01f11bb_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&782& data-rawheight=&792& class=&origin_image zh-lightbox-thumb& width=&782& data-original=&https://pic4.zhimg.com/v2-7c7b58b8ec7f0d01f11bb_r.jpg&&&/figure&&p&16. 这颗树有点难懂,因为有很多额外信息,不过你可以看到它先基于列 1(Brand)进行分割,再基于列 2(Color)进行分割。&/p&&p&一旦构建处这颗树,那么未来的预测就很简单了。我们来看一下我们是否想吃蓝色的 Kit Kat 巧克力。&/p&&p&将以下行添加至 decision_tree.py 文件的末尾:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&print(dTree.predict([[1, 1]]))
&/code&&/pre&&/div&&p&输出为 [0],意味着分类是不吃。如果你尝试红色士力架(print(dTree.predict([[0, 0]]))),则输出是 [1]。&/p&&p&&br&&/p&&h2&&b&继续研究&/b&&/h2&&p&经过以上学习,你应该对决策树有所了解,同时学会了简单的实现。如果希望进一步探索,你可以参考这些资源:&/p&&ol&&li&Scikit-Learn 上的决策树页面,讨论在更大的数据集和其他度量下分割数据:&a href=&https://link.zhihu.com/?target=http%3A//scikit-learn.org/stable/modules/tree.html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&scikit-learn.org/stable&/span&&span class=&invisible&&/modules/tree.html&/span&&span class=&ellipsis&&&/span&&/a&&/li&&li&Kaggle 上的机器学习教程,一个深度教程,教你参与 Kaggle 竞赛,并构建一个住房数据的决策树模型:&a href=&https://link.zhihu.com/?target=https%3A//www.kaggle.com/learn/machine-learning& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&kaggle.com/learn/machin&/span&&span class=&invisible&&e-learning&/span&&span class=&ellipsis&&&/span&&/a&&/li&&li&Saving your Scikit Models:本教程中,每次运行都会训练一遍模型。这在小数据集中还可以接受,但对于更大的数据集来说最好是一次训练,随后仅使用。这个教程可以教你如何保存自己的模型:&a href=&https://link.zhihu.com/?target=http%3A//scikit-learn.org/stable/modules/model_persistence.html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&scikit-learn.org/stable&/span&&span class=&invisible&&/modules/model_persistence.html&/span&&span class=&ellipsis&&&/span&&/a&&/li&&li&将训练好的模型转换为 Core ML:如果你为另一个数据集训练了自己的决策树,并希望在 iOS 设备上运行,那么你就需要将已训练模型转换为 Core ML 框架版本:&a href=&https://link.zhihu.com/?target=https%3A//developer.apple.com/documentation/coreml/converting_trained_models_to_core_ml& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&developer.apple.com/doc&/span&&span class=&invisible&&umentation/coreml/converting_trained_models_to_core_ml&/span&&span class=&ellipsis&&&/span&&/a&&/li&&/ol&&figure&&img src=&https://pic3.zhimg.com/v2-18cc987d5f379a82f22318_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&73& data-rawheight=&24& class=&content_image& width=&73&&&/figure&&p&原文链接:&a href=&https://link.zhihu.com/?target=https%3A//heartbeat.fritz.ai/introduction-to-decision-tree-learning-cd604f85e236& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&heartbeat.fritz.ai/intr&/span&&span class=&invisible&&oduction-to-decision-tree-learning-cd604f85e236&/span&&span class=&ellipsis&&&/span&&/a&&/p&
选自HEARTBEAT,作者:Ishan Sharma,机器之心编译。基于树的学习算法在数据科学竞赛中相当常见。这些算法给预测模型赋予了准确性、稳定性以及易解释性。其中,决策树算法也是引人关注的「随机森林」算法的基础构造模块。本文介绍了决策树的概念和简单实现…
&figure&&img src=&https://pic4.zhimg.com/v2-a96abfd4269ac_b.jpg& data-rawwidth=&600& data-rawheight=&354& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic4.zhimg.com/v2-a96abfd4269ac_r.jpg&&&/figure&&p&笔记作者:Jim Liang&/p&&blockquote&近日,来自SAP(全球第一大商业软件公司)的梁劲(Jim Liang)公开了自己所写的一份 520 页的学习教程(英文版),详细、明了地介绍了机器学习中的相关概念、数学知识和各种经典算法。机器之心看到后,也迫不及待的推广给更多的读者。完整的 PDF 请从文后作者公开的链接下载。 &/blockquote&&p&在介绍中,Jim Liang 写到:&/p&&blockquote&人工智能是这两年风头正劲的领域,也是未来具有颠覆性可能的新领域。不少人尝试去学习机器学习相关的知识。然而,一旦越过最初的 overview 阶段,很多人就开始打退堂鼓了,然后迅速放弃。&br&&br&为什么会这样?&br&&br&&b&极 高 的 学 习 曲 线&/b&&/blockquote&&ul&&li&首当其冲就是数学,涉及统计学、微积分、概率、线性代数等,大家虽然都学过高等数学,但如果你还记得里面的细节,算你牛。更可能的情况是,多数人都对高等数学忘记了,面对各种算法里的大量公式,感到厌恶,甚至恐惧。&/li&&li&其次因为机器学习本身是一个综合性学科,而且是一个快速发展的学科,知识点散乱,缺乏系统性。&/li&&li&市面上的机器学习/深度学习书籍、文章、教程,遍地开花,但能以清晰的方式表达、循序渐进地讲解的教程,其实不多,大量的教程没有考虑到学习者的基础,使得初学者感到挫败和困惑。&/li&&/ul&&blockquote&&b&图 解 机 器 学 习&/b& &br&&br&正是对机器学习的过程中的痛苦有切身体会,我希望能做一份教程,以浅显易懂的方式去讲解它,降低大家的学习门槛。我为此花费了数月时间,经常做到深夜,把自己的学习笔记整理成了这份教程。&/blockquote&&p&&br&&/p&&p&&b&从结构来看,全部教程包含两部分:&/b&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-d007aa657d21cc92bd42b1a_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&612& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic4.zhimg.com/v2-d007aa657d21cc92bd42b1a_r.jpg&&&/figure&&p&Part 1 介绍了基本概念,包括:&/p&&ul&&li&机器学习的流程&/li&&li&数据处理&/li&&li&建模&/li&&li&评估指标(如 MSE、ROC 曲线)&/li&&li&模型部署&/li&&li&过度拟合&/li&&li&正则化等&/li&&/ul&&p&在第一部分,作者先介绍了如今应用普遍的机器学习:从自动驾驶、语音助手到机器人。其中有些思想,也是众多读者们了解过的,例如:为何机器学习在这个时候会火(大数据、计算力、更好的算法);机器学习、人工智能、深度学习三者的关系等。&/p&&p&除了这些基础概念,这份教程也对机器学习模型的开发流程做了图像化展示(如下图),即使对此不太了解的读者,也能通过这种流程展示有所学习。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-57d50f60c6b062a9156feb1fe76b8748_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&778& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic4.zhimg.com/v2-57d50f60c6b062a9156feb1fe76b8748_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-850ce9b7_b.jpg& data-size=&normal& data-rawwidth=&1080& data-rawheight=&557& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic3.zhimg.com/v2-850ce9b7_r.jpg&&&figcaption&建立机器学习解决方案的步骤 &/figcaption&&/figure&&p&在 Part1 的其他小节,作者以类似的图像展示,对数据、建模、模型部署等内容做了详细介绍,这里就不一一列举,可以从原报告查看。&/p&&p&在 Part2,作者介绍了 常用的算法,包括:&/p&&ul&&li&线性回归&/li&&li&逻辑回归&/li&&li&神经网络&/li&&li&SVM&/li&&li&Knn&/li&&li&K-Means&/li&&li&决策树&/li&&li&随机森林&/li&&li&AdaBoost&/li&&li&朴素贝叶斯&/li&&li&梯度下降&/li&&li&主成分分析&/li&&/ul&&p&这部分包含了大量的数学公式,但作者尽力注解了其中的每个公式,从而充分、清晰地表达了众多数学概念。&/p&&p&例如在「神经网络」部分,作者整理了 59 页的笔记(从 311 页到 369 页)。作者从人脑中的神经元架构说起,介绍了人工神经网络(ANN)、人工神经元工作的原理。这份笔记非常注重图像化的概念解释,理解起来非常直观。&/p&&p&例如,下图中的概念解释很形象地展现了生物神经元和人工神经元工作方式的相似性。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-c34c4c300bac0bd8ee6250_b.jpg& data-size=&normal& data-rawwidth=&874& data-rawheight=&226& class=&origin_image zh-lightbox-thumb& width=&874& data-original=&https://pic3.zhimg.com/v2-c34c4c300bac0bd8ee6250_r.jpg&&&figcaption&生物神经元的树突输入-轴突输出模式和人工神经元的输入输出模式对比&/figcaption&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-c5de69b9d7_b.jpg& data-size=&normal& data-rawwidth=&913& data-rawheight=&331& class=&origin_image zh-lightbox-thumb& width=&913& data-original=&https://pic2.zhimg.com/v2-c5de69b9d7_r.jpg&&&figcaption&过拟合的解释&/figcaption&&/figure&&figure&&img src=&https://pic4.zhimg.com/v2-8e0b679dbe9a0750cdcae18_b.jpg& data-size=&normal& data-rawwidth=&868& data-rawheight=&812& class=&origin_image zh-lightbox-thumb& width=&868& data-original=&https://pic4.zhimg.com/v2-8e0b679dbe9a0750cdcae18_r.jpg&&&figcaption&人工神经元的基础结构&/figcaption&&/figure&&p&在涉及到数学公式时,作者会在旁边有详细的注解,如下图所示:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-7cfcef643b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&518& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic3.zhimg.com/v2-7cfcef643b_r.jpg&&&/figure&&p&对于并列的可选项(如激活函数、常用神经网络架构等),也会有全面的列表:&/p&&i&&figure&&img src=&https://pic3.zhimg.com/v2-f33fcb9957fade46e8c07_b.jpg& data-size=&normal& data-rawwidth=&557& data-rawheight=&460& class=&origin_image zh-lightbox-thumb& width=&557& data-original=&https://pic3.zhimg.com/v2-f33fcb9957fade46e8c07_r.jpg&&&figcaption&常用的激活函数&/figcaption&&/figure&&/i&&p&然后会有每个激活函数的单独介绍:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-c1b0370196fced7f82438_b.jpg& data-size=&normal& data-rawwidth=&971& data-rawheight=&506& class=&origin_image zh-lightbox-thumb& width=&971& data-original=&https://pic3.zhimg.com/v2-c1b0370196fced7f82438_r.jpg&&&figcaption&Sigmoid 激活函数&/figcaption&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-dfa5e8ff890885cdbc701_b.jpg& data-size=&normal& data-rawwidth=&1031& data-rawheight=&381& class=&origin_image zh-lightbox-thumb& width=&1031& data-original=&https://pic3.zhimg.com/v2-dfa5e8ff890885cdbc701_r.jpg&&&figcaption&用神经网络分类手写数字的前向传播示例(softmax 激活函数)&/figcaption&&/figure&&p&对于神经网络中较为复杂的概念(如求导、反向传播),几张图就能解释清楚:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-e0cffc46fec0b53ef67f70_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&983& data-rawheight=&302& class=&origin_image zh-lightbox-thumb& width=&983& data-original=&https://pic3.zhimg.com/v2-e0cffc46fec0b53ef67f70_r.jpg&&&/figure&&p&关于神经网络的完整训练过程,作者用简略流程图+计算细节展开的方式呈现:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-416bc68aefcce4b569190_b.jpg& data-size=&normal& data-rawwidth=&387& data-rawheight=&325& class=&content_image& width=&387&&&figcaption&反向传播算法完整流程&/figcaption&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-e5ffc211fcc26c0ca4ac6_b.jpg& data-size=&normal& data-rawwidth=&993& data-rawheight=&415& class=&origin_image zh-lightbox-thumb& width=&993& data-original=&https://pic2.zhimg.com/v2-e5ffc211fcc26c0ca4ac6_r.jpg&&&figcaption&前向传播部分的计算细节&/figcaption&&/figure&&p&就像前面提到的,这部分除了「神经网络」的介绍,还包括随机森林、梯度下降等概念的介绍,读者们可查看原教程。&/p&&p&&br&&/p&&p&&b&总结&/b&&/p&&p&看完这份教程之后,小编觉得这是一份包罗万象的学习笔记,既适合非专业人士了解有关机器学习的基础概念,又适合有专业背景的学生进一步学习。&/p&&p&写教程是为了自己持续学习,分享教程是为了帮助更多人学习。就像作者所说,「Learning by doing/teaching, 写这个教程主要是强迫自己持续学习,另外,也想分享给他人,希望能帮助到更多想学习 Machine Learning 的人,降低大家的学习痛苦。」&/p&&figure&&img src=&https://pic3.zhimg.com/v2-18cc987d5f379a82f22318_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&73& data-rawheight=&24& class=&content_image& width=&73&&&/figure&&p&教程文档下载地址(百度云):&a href=&https://link.zhihu.com/?target=https%3A//pan.baidu.com/s/1tNXYQNadAsDGfPvuuj7_Tw& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&pan.baidu.com/s/1tNXYQN&/span&&span class=&invisible&&adAsDGfPvuuj7_Tw&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&/p&
笔记作者:Jim Liang近日,来自SAP(全球第一大商业软件公司)的梁劲(Jim Liang)公开了自己所写的一份 520 页的学习教程(英文版),详细、明了地介绍了机器学习中的相关概念、数学知识和各种经典算法。机器之心看到后,也迫不及待的推广给更多的读者。完…
&figure&&img src=&https://pic2.zhimg.com/v2-e8b1a5f740dd3ddd94cd0db94dff49b7_b.jpg& data-rawwidth=&1246& data-rawheight=&686& class=&origin_image zh-lightbox-thumb& width=&1246& data-original=&https://pic2.zhimg.com/v2-e8b1a5f740dd3ddd94cd0db94dff49b7_r.jpg&&&/figure&&p&为了搜集某类信息或因为浏览网页的链式特性而无意识地打开六、七个网页是常常出现的情景。&br&&/p&&p&为了保持视觉清洁,我们常常会进行短暂的判断和筛选后保留「相对有用」的网页,然后选择性关闭部分「相对无用」的网页或者干脆「新建一个窗口」(这其中还可能夹杂着「添加网页到书签」「使用网页剪藏工具进行保存」等保存操作),继续重复之前流程,直至找到最为满意的信息,最后关闭所有网页。&/p&&p&这一套常见的流程看似有「间歇保存」的安全操作,实际还是有些不足。例如下图所示情景。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-bb53fb55aaa42a3a1ceef_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&635& data-rawheight=&356& data-thumbnail=&https://pic3.zhimg.com/v2-bb53fb55aaa42a3a1ceef_b.jpg& class=&origin_image zh-lightbox-thumb& width=&635& data-original=&https://pic3.zhimg.com/v2-bb53fb55aaa42a3a1ceef_r.jpg&&&/figure&&p&很可能我们起初的是为了搜集某类信息或其他目的而不断添加标签页,其中可能夹杂着「间歇保存」「添加与此流程无关的标签页」「新窗口打开」等干扰环节,最后往往会偏移起初的轨道,沉溺在面对茫茫多的标签页中。&/p&&p&今天要介绍的 Toby 算是老牌的标签页管理插件了,曾位列 Product Hunt 2016 Chrome 标签页扩展的榜单之首 。如果厌倦了默认新标签页,想在标签页做点什么,不妨试试这款标签页管理插件。&a href=&https://link.zhihu.com/?target=https%3A//chrome.google.com/webstore/detail/toby-for-chrome/hddnkoipeenegfoeaoibdmnaalmgkpip& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Toby&/a&。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-ce6cb00b15b7dfec39dcb7_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1314& data-rawheight=&644& class=&origin_image zh-lightbox-thumb& width=&1314& data-original=&https://pic4.zhimg.com/v2-ce6cb00b15b7dfec39dcb7_r.jpg&&&/figure&&p&&br&&/p&&p&Toby 是一款强大的个人效率利器,也是一个不错的团队合作平台。添加扩展后,先注册账号,以便能正常使用后面将会提到团队邀请和一些较高级的功能。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-cfa1d37adacca_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1313& data-rawheight=&644& class=&origin_image zh-lightbox-thumb& width=&1313& data-original=&https://pic2.zhimg.com/v2-cfa1d37adacca_r.jpg&&&/figure&&p&Toby 的界面非常简洁,令人熟悉的 Material Design 风格,精美算不上,原生般的嵌入就已经足够了。&/p&&p&界面布局三个板块,各司其职。右侧边预览栏主要显示当前打开的所有标签页,占大面积的左侧「工作台」纵向分类横向布局,存储所有需要保存的标签页面。上部标签栏将组织划分。&/p&&p&为了不显枯燥,下面我将用几个简单示例来介绍和表达我的看法以及使用。&/p&&h2&操作轻便,分类精确&/h2&&p&首先,随意打开几个标签页。使用 Shift + N 快捷键或单击工作台右下角的加号按钮,创建一个新的收集类,接着就可以开始尝试如下操作了。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-396c51f7d355f6dffe96_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1292& data-rawheight=&759& data-thumbnail=&https://pic3.zhimg.com/v2-396c51f7d355f6dffe96_b.jpg& class=&origin_image zh-lightbox-thumb& width=&1292& data-original=&https://pic3.zhimg.com/v2-396c51f7d355f6dffe96_r.jpg&&&/figure&&p&简单的使用「拖放」操作,将需要的加入该类的标签页,拖放归类。&/p&&p&点击 Save Sessions 按钮,一键傻瓜式保存当前所有打开的标签页到 My&br&Collections,并以日期时间命名类别。也可以通过快捷键 Shift + S,进行快捷保存。注:此操作是全局的,在任何组织类下使用,均保存到保存到 My Collections 中,以时间轴命名,纵向排列。&/p&&p&可以通过 Shift + A 查看所有快捷键功能。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-c407d8a9ee2c0d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&434& data-rawheight=&430& class=&origin_image zh-lightbox-thumb& width=&434& data-original=&https://pic3.zhimg.com/v2-c407d8a9ee2c0d_r.jpg&&&/figure&&p&日常中有急事要关闭电脑,离开,即可使用 Shift + S 迅速保存工作现场。回来后,再使用 「OPEN x TABS」或 Shift + O,快速回到离开前的状态。&/p&&h2&及时归类「链式」标签页,让标签页更加清爽&/h2&&p&在少数派经常能遇到这种「链式」阅读或推荐网站的情景。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-8d23db2e227711bad494eaabf1c17493_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&881& data-rawheight=&669& class=&origin_image zh-lightbox-thumb& width=&881& data-original=&https://pic3.zhimg.com/v2-8d23db2e227711bad494eaabf1c17493_r.jpg&&&/figure&&p&不妨先归个类,使用刚刚开启的「Import open tabs」功能,让标签页变得更加更加清爽,然后 Ctrl + 鼠标左键单击,打开需要添加书签的网页,然后 Ctrl + D 添加书签。&/p&&p&&br&&/p&&p&如果此时不妙,又有急事在身,点击「Close all,open close」,再次使用 C

我要回帖

更多关于 卫星研制流程 的文章

 

随机推荐