深度学习能解决生物调试问题吗

您的位置:
《》  昨日吸毒艺人又增添了一位胖子
  他就是早前凭借《抓住那个胖子》出道的民谣歌手宋冬野
  这次这个胖子真的被抓住了,科科
  而这次又是在朝阳区身陷囹圄
  厉害了我的朝阳群众 版权qi-wen.com
  可能是朝阳人民看了《湄公河行动》
  血脉喷张,一怒之下就把老宋举报了
  冬野冬野,你怎么吸毒了啊?
  民谣富了 《》
  不只是一把吉他和四海为家了
  不但抽得起烟
  也吸得起毒了
  安和桥塌了 斑马死了 董小姐和人跑了
  莉莉安不见了 兰州抽不了啦 宋冬野吸毒了 阅读http://www.qi-wen.com/
  你再也不是安和桥下清澈的水了
  爱上一个宋冬野 可我的家里没有毒品
  本以为吸毒可以瘦成一道闪电
  而宋冬野却用事实说明我依然没有成功减肥
  而就在宋冬野吸毒被抓的同时 阅读http://www.qi-wen.com/
  对岸同为民谣歌手的Bob Dylan获得诺贝尔文学奖
  迪伦在音乐领域
  或者整个六十年代以后的文化领域的影响是毋庸置疑
  很多歌曲至今也被视作经典
  在被多次提名诺贝尔文学奖后 原文http://www.qi-wen.com/
  最终在今年斩获诺奖
  而反观老宋
  真的是个有故事的男同学
  不但会唱歌 还是一只会吸毒的斑马
  这让我感到绝望 【】
浙江省诸暨市农林局为振兴乡村经济,推进“机器换人”提升效率,采用无人植保机具有地形适应性好、劳动强度低、喷洒效果好、施药效率高、安全环保等优点,与传统人工防治相比,无人机作业效率能提高40倍以上、防治成本减轻40%左右、节水95%以上。图为3月22日,东白湖镇千亩油菜基地采用小型无人植保机防治油菜病虫害。徐德文徐越坚摄(人民视觉)
提到Beats,在很多人的眼里都把它定义为时尚潮品!更有趣的事情是,有些出售Beats耳机的地方甚至会在耳机隔壁放一枚镜子。不过,我认为这样的定义是非常片面的。Beats的产品除了具备非常时尚的潮流属性以外,在低音方面的表现也是让人鼓掌的一个加分项。另外Beats的产品线也非常丰富,特别是这一两年热火朝天的挂脖耳机,Beats早已在去年就开始布局。它便是BeatsX,今天有幸能够体验,它的具体表现让人感到期待。开箱与印象里面Beats耳机的包装风格有较大的差异,BeatsX的包装采用翻盖设计,简
本文图文、视频素材来源于youtube、设计邦等其他网络;配音、字幕、剪辑:数艺网;如需转载请注明出处,谢谢!今天给大家带来的分享是来自2017年亮相于米兰设计周的一件多重感官体验装置,名为「NewSpring」这件作品是由日本建筑师AzusaMurakami(村上梓)和英国艺术家AlexanderGrove组成的设计二人组「studioswine」共同打造文中介绍均为视频中的解说,请欣赏视频国际知名时装品牌COS与studioswine共同在templehouse展出了这件雕塑装置。装置高达6
本文来自于文旅帮,如需转载请联系原作者,谢谢!随着越来越多新兴群体观念的影响,并以年轻群体为最,他们更愿意慢下来去享受旅行的乐趣,由此其旅游时间也发生了显著变化,夜间逐渐成为最具消费潜力的时段,是旅游消费升级的一次重要机遇。声、光、电的高科技和水、陆、空的视听体验似乎成了中国本土夜间产品的主旋律。此外,根据园区特性,或部分翻新或全新打造夜场模式,都是可行模式。让我们细数下各个园区晚上那点事,看看园区如何能越夜越美丽!越美丽越盈利!灯光+让夜晚化身梦中回忆灯光是夜间最好的催情剂。主题景区的灯光布置
如果出现适当的工具,机构客户会感到更加自信。解决这个问题,可以用很简单的方式,把市场参与者必须的工具植入到加密交易所。这是目前正在开发的项目,它被称为Qurrex。一个拥有丰富的传统交易所(俄罗斯和独联体的项目)开发开经验的专家团队正在从事该交易所的创建。该团队还吸纳了在开发企业工业和贸易、经纪和外汇交易系统方面拥有20多年经验的开发人员。Qurrex交易所将支持以下类型的公共可用工具:-现货工具(外汇对、密码货币对);-回购交易和掉期交易;期货和期权。-借助这些工具,用户将能够进行专门的和匿名
电动螺丝刀其实是一种非常具有“职业性”的产品,它的受众群体是相当小众的。数码设备的电动螺丝刀的受众群体就更少了。京东发布自家品牌之后,竟然也“出”了一款电动螺丝刀。注意,是“出”,不是做。制造商来自于wowstick,京东只是做了个“定制”。这种模式其实可以说是司空见惯了。但也无可厚非,定制方在享受便利的同时,也要承担销售风险。京东似乎蛮有信心的,毕竟自己就是靠3C数码起家的。或许是有一种想凭借这方面的用户基数来量变的想法。总之,它做了。。。替换高清大图.但好在,为它买单的用户不仅限于职业人士,
近期,关于iPhoneSE2的传闻不断,不少人为分析认为,3月27日发布会苹果可能将推出iPhoneSE2。但很不幸,近期iPhoneS2不会与大家见面了,因为某些原因,在印度生产的iPhoneSE2发布计划被推迟了。周五早上,印度科技网站Tekz24发布报道称,iPhoneSE2将是一款“印度制造(MadeinIndia)”的智能手机,所有的组装工作都在印度完成。关于这点报道说得没错,因为去年台湾供应链已经确认,iPhoneS2将交给纬创独家操刀,而纬创的将这一生产基地建于印度班加罗尔,并将其
上一篇文章我分享了索尼α7M2的体验文以及相应的各个场景实拍照片,再往前我写了篇黑莓的文章,里面整理有很多黑莓的手机摄影,两篇文章里充斥着很多关于大连的照片。那么这次的分享还是关于大连。趁着前面两篇文章发完没多久,我也趁热给此篇整理出来。在以往的文章里已经有很多很多是用OlympusE-P5所拍,到了去年6月的时候换了索尼新机,E-P5就暂存在家妹手里,现在为止,还有一些以前在尾巴没分享过的照片,都在这次与大家见面。上一次提及的一个问题是微单和单反的选择,这次的奥巴单电或许也能给大家一个参考作用
占星基础线上课国际占星研究最热门的课程,占星基础线上课2018年4月开课,国际占星研究院是由台湾“占星全书”作者鲁道夫老师与香港Jupiter老师共同创立,本学院占星系列课程根据传统英国占星学院的教育方法,系统的带领学生由浅入深逐步的走向专业占星领域。伙伴们因请假错过的课程,我们会提供录音(需到堂1/2以上),随堂缴交作业,M9毕业即核发上课证书。本次2018年基础课程由教学经验丰富的国际占星研究院的鲁道夫、艾曼达、布莱恩老师指导,其它相关规定请看温馨提示。课程大纲本占星系统课程全系列共9阶,M
霍华德在对阵篮网的比赛中砍下了32分加30篮板的超级数据,创下个人纪录和球队历史纪录,十年过去,魔兽还是那个魔兽,他还是那个可以从罚球线起跳的超人,多年流浪,只是我们对他的要求太高了,魔兽却始终一笑而过。堂哥并不认为这个纪录对于霍华德来说算是什么大事,他一直有这个实力,只是无欲无求惯了,得过且过,本赛季来到黄蜂,他便6次单场砍下篮板20+,队史第一。可见他的实力尚存。现在的篮球时代是属于小球风格的,没多少真正拥有自主进攻能力的中锋,但是下面这五位中锋,却依然守卫着大个子固有的领地。小乔丹本赛季保
知识图谱以其强大的语义处理能力和开放组织能力,为互联网时代的知识化组织和智能应用奠定了基础,其应用趋势也从通用领域走向行业领域。许多行业为了应对大数据应用的不同挑战,借助知识图谱,实现不同的业务需求,实现了通用和行业应用“百花齐放”的局面。本期笔者采访了易建科技智慧城市事业部知识工程团队经理、知识图谱技术研究人员鲍立飞,详细阐述了易建如何深度开发基于本体的行业知识图谱构建技术及应用。如何构建一个有效的知识图谱?知识图谱构建主要有自顶向下(Top-Down)和自底向上(Bottom-Up)两种方法
水逆又来啦!(3月23日—4月15日)戳上方图片,念出咒语,水逆退散!念出咒语,水逆退散,好运不断!戳下方图片,制作属于你的去水逆咒语
@风轻云淡:找教练+本人练正手攻球八个月了,基本上按马凯旋教练的要求做的:徒手挥拍(用节拍器)三个多月、多球训练(用发球机)、和球友练正手斜线,现在每天还在徒手挥拍(有时走位挥),每天摸球时间有两个小时,这种状态也有一年半了,最开始练了七个月的直拍横打(也按马教练说的)效果很好,但正手攻似乎找不到感觉,也对照你们国球汇的视频扣细节,但就是不得要领,想请马教练给我抠抠细节。@马凯旋教练:首先为你这种坚持不懈巩固基础的训练方式点赞,要知道基础训练是最为枯燥的,能坚持下来说明你很有毅力,有了坚实的基础
爱丽丝:@星野saori摄影&后期:@肥牛先森Jocz服装:@御座社感谢后勤:@斌斌hideto以及那天不知道微博名大夏天热cry一起战斗的后勤们,辛苦啦!衣服细节超级棒好还原花纹很华丽!!因为有那个人,才有现在的我虽然对你们没有怨恨,还是让你们消失吧就算这个世界充满诅咒,我也不想放弃活下去……召唤[心]@蛋壳-安利协会@吐槽部部长_FrosV@衰退喵MILK微博:https://weibo.com//F99exbfflPS:未经COSer或摄影师本人授权不得转载到其他网站以
本站除标明"本站原创"外,其他文章和图片均来自网络,如涉及版权问题请与我们联系
(C) 2015 qi-wen.com 奇闻网主题信息(必填)
主题描述(最多限制在50个字符)
申请人信息(必填)
申请信息已提交审核,请注意查收邮件,我们会尽快给您反馈。
如有疑问,请联系
CSDN &《程序员》研发主编,投稿&纠错等事宜请致邮
你只管努力,剩下的交给时光!
如今的编程是一场程序员和上帝的竞赛,程序员要开发出更大更好、傻瓜都会用到软件。而上帝在努力创造出更大更傻的傻瓜。目前为止,上帝是赢的。个人网站:www.xttblog.com。个人QQ群:、
个人大数据技术博客:https://www.iteblog.com
深度学习在近几年实现了巨大的突破,而这一方法也被应用到越来越多的领域,用于解决过去在这些领域难以解决的问题。&figure&&img src=&https://pic1.zhimg.com/v2-65284abe4d86c4a304fd9_b.jpg& data-rawwidth=&1200& data-rawheight=&675& class=&origin_image zh-lightbox-thumb& width=&1200& data-original=&https://pic2.zhimg.com/v2-65284abe4d86c4a304fd9_r.jpg&&&/figure&&blockquote&原作 James Le&br&Root 编译自 KDuggets&br&量子位 报道 | 公众号 QbitAI&/blockquote&&p&在机器学习领域里,不存在一种万能的算法可以完美解决所有问题,尤其是像预测建模的监督学习里。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-37cb6e9ae8cdb6a965e1d701_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&800& data-rawheight=&444& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&https://pic2.zhimg.com/v2-37cb6e9ae8cdb6a965e1d701_r.jpg&&&/figure&&p&比方说,神经网络不见得比决策树好,同样反过来也不成立。&/p&&p&最后的结果是有很多因素在起作用的,比方说数据集的大小以及组成。&/p&&p&所以,针对你要解决的问题,最好是尝试多种不同的算法。并借一个测试集来评估不同算法之间的表现,最后选出一个结果最好的。&/p&&p&当然,你要选适合解决你问题的算法来尝试。&/p&&p&比方说,要打扫房子,你会用真空吸尘器,扫把,拖把;你绝对不会翻出一把铲子来开始挖坑,对吧。&/p&&h2&&b&大的原则&/b&&/h2&&p&不过呢,对于所有预测建模的监督学习算法来说,还是有一些通用的底层原则的。&/p&&blockquote&机器学习算法,指的是要学习一个目标函数,能够尽可能地还原输入和输出之间的关系。&/blockquote&&p&然后根据新的输入值X,来预测出输出值Y。精准地预测结果是机器学习建模的任务。&/p&&p&So,Top10机器学习算法,了解一下。&/p&&h2&&b&线性回归 &/b&&/h2&&p&统计学与机器学习领域里研究最多的算法。&/p&&p&做预测建模,最重要的是准确性(尽可能减小预测值和实际值的误差)。哪怕牺牲可解释性,也要尽可能提高准确性。&/p&&p&为了达到这个目的,我们会从不同领域(包括统计学)参考或照搬算法。&/p&&p&线性回归可用一条线表示输入值X和输出值Y之间的关系,这条线的斜率的值,也叫系数。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-d2cbced66d57785_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&800& data-rawheight=&424& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&https://pic2.zhimg.com/v2-d2cbced66d57785_r.jpg&&&/figure&&p&比方说,y = B0 + B1*x&/p&&p&我们就可以根据X值来预测Y值。机器学习的任务就是找出系数B0和B1。&/p&&p&从数据中建立线性回归的模型有不同的方法,比方说线性代数的最小二乘法、梯度下降优化。&/p&&p&线性回归已经存在了200多年,相关研究已经很多了。用这个算法关键在于要尽可能地移除相似的变量以及清洗数据。&/p&&p&对算法萌新来说,是最简单的算法了。&/p&&h2&&b&2 .逻辑回归&/b&&/h2&&p&这方法来自统计学领域,是一种可以用在二元分类问题上的方法。&/p&&p&逻辑回归,和线性回归相似,都是要找出输入值的系数权重。不同的地方在于,对输出值的预测改成了逻辑函数。&/p&&p&逻辑函数看起来像字母S,输出值的范围是0到1。&/p&&p&把逻辑函数的输出值加一个处理规则,就能得到分类结果,非0即1。&br&比方说,可以规定输入值小于0.5,那么输出值就是1。&/p&&p&这个算法还可以用来预测数据分布的概率,适用于需要更多数据论证支撑的预测。&/p&&p&和线性回归相似,如果把和输出不相干的因子或者相近的因子剔除掉的话,逻辑回归算法的表现会更好。&/p&&p&对于二元分类问题,逻辑回归是个可快速上手又有效的算法。&/p&&h2&&b&3.线性判别分析&/b&&/h2&&p&逻辑回归算法,只能用于二分问题。&/p&&p&当输出的结果类别超过两类的时候,就要用线性判别分析算法了。&/p&&p&这种算法的可视化结果还比较一目了然,能看出数据在统计学上的特征。这上面的结果都是分别计算得到的,单一的输入值可以是每一类的中位数,也可以是每一类值的跨度。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-cdcfdcffb53_b.jpg& data-size=&normal& data-rawwidth=&799& data-rawheight=&622& class=&origin_image zh-lightbox-thumb& width=&799& data-original=&https://pic4.zhimg.com/v2-cdcfdcffb53_r.jpg&&&figcaption&线性判别分析&/figcaption&&/figure&&p&基于对每种类别计算之后所得到的判别值,取最大值做出预测。&/p&&p&这种方法是假定数据符合高斯分布。所以,最好在预测之前把异常值先踢掉。&/p&&p&对于分类预测问题来说,这种算法既简单又给力。&/p&&h2&&b&4. 分类与回归树&/b&&/h2&&p&预测模型里,决策树也是非常重要的一种算法。&/p&&p&可以用分两叉的树来表示决策树的模型。每一个节点代表一个输入,每个分支代表一个变量(默认变量是数字类型)&/p&&figure&&img src=&https://pic4.zhimg.com/v2-6e8b878f70c0c099c57e3_b.jpg& data-size=&normal& data-rawwidth=&800& data-rawheight=&441& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&https://pic4.zhimg.com/v2-6e8b878f70c0c099c57e3_r.jpg&&&figcaption&决策树&/figcaption&&/figure&&p&决策树的叶节点指的是输出变量。预测的过程会经过决策树的分岔口,直到最后停在了一个叶节点上,对应的就是输出值的分类结果。&/p&&p&决策树很好学,也能很快地得到预测结果。对于大部分问题来说,得到的结果还挺准确,也不要求对数据进行预处理。&/p&&h2&&b&5.朴素贝叶斯分类器&/b&&/h2&&p&这种预测建模的算法强大到超乎想象。&br&这种模型,可以直接从你的训练集中计算出来两种输出类别的概率。&/p&&p&一个是每种输出种类的概率;另外一个,是根据给定的x值,得到的是有条件的种类概率。&/p&&p&一旦计算之后,概率的模型可以用贝叶斯定理预测新的数据。&/p&&p&当你的数据是实数值,那么按理说应该是符合高斯分布的,也就很容易估算出这个概率。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-ceed3d7f563d81eec4c0ab775d1f9ad4_b.jpg& data-size=&normal& data-rawwidth=&800& data-rawheight=&491& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&https://pic1.zhimg.com/v2-ceed3d7f563d81eec4c0ab775d1f9ad4_r.jpg&&&figcaption&贝叶斯定理&/figcaption&&/figure&&p&朴素贝叶斯定理之所以名字里有个“朴素”,是因为这种算法假定每个输入的变量都是独立的。&/p&&p&不过,真实的数据不可能满足这个隐藏前提。尽管如此,这个方法对很多复杂的问题还是很管用的。&/p&&h2&&b&6.K近邻算法&/b&&/h2&&p&最近K近邻的模型表示,就是整个训练集。很直截了当,对吧?&/p&&p&对新数据的预测,是搜索整个训练集的值,找到K个最近的例子(literally的邻居)。然后总结K个输出的变量。&/p&&p&这种算法难就难在,怎么定义两个数据的相似度(相距多近算相似)。&/p&&p&如果你的特征(attributes)属于同一个尺度的话,那最简单的方法是用欧几里得距离。这个数值,你可以基于每个输入变量之间的距离来计算得出。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-7d3e9018bd0ada960bb27_b.jpg& data-size=&normal& data-rawwidth=&800& data-rawheight=&600& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&https://pic4.zhimg.com/v2-7d3e9018bd0ada960bb27_r.jpg&&&figcaption&最近邻法&/figcaption&&/figure&&p&最近邻法,需要占用大量的内存空间来放数据,这样在需要预测的时候就可以进行即时运算(或学习)。也可以不断更新训练集,使得预测更加准确。&/p&&p&距离或亲密度这个思路遇到更高维度(大量的输入变量)就行不通了,会影响算法的表现。&/p&&p&这叫做维度的诅咒。&/p&&p&当(数学)空间维度增加时,分析和组织高维空间(通常有成百上千维),因体积指数增加而遇到各种问题场景。&/p&&p&所以最好只保留那些和输出值有关的输入变量。&/p&&h2&&b&7.学习矢量量化&/b&&/h2&&p&最近邻法的缺点是,你需要整个训练集。&/p&&p&而学习矢量量化(后简称LVQ)这个神经网络算法,是自行选择训练样例。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-c95cda3f81e7eb67935a_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&800& data-rawheight=&356& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&https://pic3.zhimg.com/v2-c95cda3f81e7eb67935a_r.jpg&&&/figure&&p&LVQ,是一组矢量,也叫码本。一开始,矢量是随机选的,经过几次学习算法迭代之后,慢慢选出最能代表训练集的矢量。&/p&&p&学习完成后,码本就可以用来预测了,就像最近邻法那样。计算新输入样例和码本的距离,可以找出最相近的邻居,也就是最匹配的码本。&/p&&p&如果你重新调整数据尺度,把数据归到同一个范围里,比如说0到1之间,那就可以获得最好的结果。&/p&&p&如果用最近邻法就获得了不错的结果,那么可以再用LVQ优化一下,减轻训练集储存压力。&/p&&h2&&b&8.支持向量机(简称SVM)&/b&&/h2&&p&这可能是机器学习里最受欢迎的算法了。&/p&&p&超平面是一条可以分割输入变量的空间的“线”。&/p&&p&支持向量机的超平面,是能把输入变量空间尽可能理想地按种类切割,要么是0,要么是1。&/p&&p&在二维空间里,你可以把超平面可以分割变量空间的那条“线”。这条线能把所有的输入值完美一分为二。&/p&&p&SVM的学习目标就是要找出这个超平面。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-5cc2b8cc375bed5891aba28b4b80e516_b.jpg& data-size=&normal& data-rawwidth=&800& data-rawheight=&466& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&https://pic3.zhimg.com/v2-5cc2b8cc375bed5891aba28b4b80e516_r.jpg&&&figcaption& 支持矢量机&/figcaption&&/figure&&p&超平面和挨得最近的数据点之间的距离,叫做边缘。&/p&&p&最理想的超平面,是可以无误差地划分训练数据。 也就是说,每一类数据里距离超平面最近的向量与超平面之间的距离达到最大值。&/p&&p&这些点就叫做支持向量,他们定义了超平面。&/p&&p&从实际操作上,最理想的算法是能找到这些把最近矢量与超平面值距离最大化的点。&/p&&p&支持向量可能是最强的拿来就用的分类器了。值得用数据集试试。&/p&&h2&&b&9.随机森林&/b&&/h2&&p&随机森林,属于一种重复抽样算法,是最受欢迎也最强大的算法之一。&/p&&p&在统计学里,bootstrap是个估算值大小很有效的方法。比方说估算平均值。&/p&&p&从数据库中取一些样本,计算平均值,重复几次这样的操作,获得多个平均值。然后平均这几个平均值,希望能得到最接近真实的平均值。&/p&&p&而bagging算法,是每次取多个样本,然后基于这些样本建模。当要预测新数据的时候,之前建的这些模型都做次预测,最后取这些预测值的平均数,尽力接近真实的输出值。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-e9e3bdd5de3e43aa81b12e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&800& data-rawheight=&489& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&https://pic3.zhimg.com/v2-e9e3bdd5de3e43aa81b12e_r.jpg&&&/figure&&p&随机森林在这个基础上稍微有点变化。&/p&&p&它包含多个决策树的分类器, 并且其输出的类别是由个别树输出的类别的众数而定。&/p&&p&如果你的高方差算法取得了不错的结果(比方说决策树),那么用随机森林的话会进一步拿到更好的结果。&/p&&h2&&b&10. 提升(Boosting)算法和自适应增强(Adaboost)算法&/b&&/h2&&p&Boosting的核心是,对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。&/p&&p&所得到的第二个弱分类器会纠正第一个弱分类器的误差。弱分类器的不断叠加,直到预测结果完美为止。&/p&&p&Adaboost算法是首个成功用于二元分类问题的提升算法。&/p&&p&现在有很多提升方法都是基于Adaboost。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-e438d6ff0fa147b0bfca315a675fb812_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&800& data-rawheight=&450& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&https://pic3.zhimg.com/v2-e438d6ff0fa147b0bfca315a675fb812_r.jpg&&&/figure&&p&&br&&/p&&p&AdaBoost适用于短的决策树。&/p&&p&在第一个树建立出来之后,不同的样本训练之后的表现可以作参考,用不同的样本训练弱分类器,然后根据错误率给样本一个权重。&/p&&p&很难预测的训练数据应该给更多的权重,反过来,好预测的就少一点权重。&/p&&p&模型按顺序一个一个建,每个训练数据的权重都会受到上一个决策树表现的影响。&/p&&p&当所有的决策树都建好之后,看新数据的预测表现,结果准不准。&/p&&p&因为训练数据对于矫正算法非常重要,所以要确保数据清洗干净了,不要有奇奇怪怪的偏离值。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-4c0fb487d90ae91d58f9a_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&500& data-rawheight=&248& class=&origin_image zh-lightbox-thumb& width=&500& data-original=&https://pic3.zhimg.com/v2-4c0fb487d90ae91d58f9a_r.jpg&&&/figure&&h2&&b&最后的最后&/b&&/h2&&p&面对海量的机器学习算法,萌新最爱问的是,“我该选什么算法?”&/p&&p&在回答这个问题之前,要先想清楚:&/p&&p&1)数据的数量、质量、本质;&br&2)可供计算的时间;&br&3)这个任务的紧急程度;&br&4)你用这个数据想做什么。&/p&&p&要知道,即使是老司机,也无法闭着眼睛说哪个算法能拿到最好的结果。还是得动手试。&/p&&p&其实机器学习的算法很多的,以上只是介绍用得比较多的类型,比较适合萌新试试手找找感觉。&/p&&p&最后,附编译来源,&br&&a href=&http://link.zhihu.com/?target=https%3A//www.kdnuggets.com/2018/02/tour-top-10-algorithms-machine-learning-newbies.html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&kdnuggets.com/2018/02/t&/span&&span class=&invisible&&our-top-10-algorithms-machine-learning-newbies.html&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&b&你可能感兴趣&/b&&/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIzNjc1NzUzMw%3D%3D%26mid%3D%26idx%3D1%26sn%3Ddea1d5e93e2%26chksm%3De8d05319dfa7da0ffcfaf3ebae30fa9b9d8cbe7cbc39%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2017年AI与深度学习要点大全&/a&&/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIzNjc1NzUzMw%3D%3D%26mid%3D%26idx%3D3%26sn%3D1f198dd973ea3fchksm%3De8d05eb6dfa7d7a0ccf94b543ba86e8fe72c9d27dc5cb7beab704b931f199f61d41%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&深度学习自学指南:6个月,从基础知识到模型构建&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIzNjc1NzUzMw%3D%3D%26mid%3D%26idx%3D3%26sn%3D5e2ac078a37c7aechksm%3De8d3a2bedfa42ba8fbbd94c7d66b5afefd5a5a5aafee04%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&我搭的神经网络不work该怎么办!看看这11条新手最容易犯的错误&/a&&/p&&p&— &b&完&/b& —&/p&&p&欢迎大家关注我们的专栏:&a href=&https://zhuanlan.zhihu.com/qbitai& class=&internal&&量子位 - 知乎专栏&/a&&/p&&p&诚挚招聘&/p&&p&量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。&/p&&p&&a href=&https://zhuanlan.zhihu.com/qbitai& class=&internal&&量子位 QbitAI&/a& · 头条号签约作者&/p&&p&?'?' ? 追踪AI技术和产品新动态&/p&
原作 James Le Root 编译自 KDuggets 量子位 报道 | 公众号 QbitAI在机器学习领域里,不存在一种万能的算法可以完美解决所有问题,尤其是像预测建模的监督学习里。比方说,神经网络不见得比决策树好,同样反过来也不成立。最后的结果是有很多因素在起作用的…
&p&尝试tensorflow几个月了,对照着几本书一行代码一行代码的敲了一些案例,从刚开始一脸懵逼到现在基本上能够看懂完整的tensorflow样例代码,中间遇到了很多困惑和踩了很多坑,这个体验跟我从C++转换为Java完全不同。编程代码的切换,更多的时候是语法和API的切换,编程的逻辑思维没有变;但从写业务代码转为写tensorflow的机器学习代码,一切都变了,语法和API的变化是小事,关键是概念变了、逻辑变了,如果没有转换思维,很难理解tensorflow的机器学习具体应该怎么做,下面就是我总结的一些经验,希望让大家少走弯路。&/p&&p&废话不多说,先上一张图:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-27a150de0c2aa93cadbb1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&2303& data-rawheight=&1058& class=&origin_image zh-lightbox-thumb& width=&2303& data-original=&https://pic2.zhimg.com/v2-27a150de0c2aa93cadbb1_r.jpg&&&/figure&&p&这张图是理解tensorflow概念和流程的关键,下面我们来具体解释一下。&/p&&p&【tensorflow流程】&/p&&p&要使用tensorflow来完成一项事情(例如分类、回归),整体上分为四个步骤:&/p&&p&&b&1)准备训练数据(参考图中“训练数据”)&/b&&/p&&p&简单来说,tensorflow的思维和传统的编程思维不一样,传统的编程思维是按照逻辑一步一步实现功能,而&b&tensorflow的编程思维是训练算法一步一步逼近精确&/b&,而训练的基础就是训练数据,也就是你的大数据集中的一个小样本数据。例如经典的数字识别,数据集可以是几百万几千万,训练数据集只要5000个数据就可以了。&/p&&p&很多的书籍和Demo都是使用tensorflow官方或者一些研究机构已经准备好的训练数据,这让很多初学者陷入了一个误区,以为训练数据的准备是很简单的,事实上我认为如果真的要在行业里面应用机器学习,&b&训练数据的准备和标准化也许是最耗费时间和资金的&/b&。例如,如果我们要开发一个X光识别肺癌的机器学习算法,首先需要准备10万张肺部的X光片,然后由医生来标注每张X光片哪些地方可能是癌症的症状,最终确诊是不是真的是癌症。&/p&&p&&b&2)定义算法(参考图中“算法定义”)&/b&&/p&&p&算法是机器学习的核心,重要性无需多言。&/p&&p&需要提醒的是,tensorflow对通用的算法的封装已经很完善,我们并不需要了解算法实现很细的细节,更加不需要自己去实现各种通用的算法,大部分情况下,只要了解通用算法的原理,然后简单调用API,完成我们自己的业务算法即可。例如常见的算法:&/p&&p&tf.sigmoid:
sigmoid算法实现&/p&&p&tf.nn.softmax:
softmax算法实现&/p&&p&tf.squared_difference:差平方&/p&&p&tf.train.GradientDescentOptimizer:梯度下降算法优化器&/p&&p&tf.nn.relu:relu算法&/p&&p&tf.tanh:双曲正切函数&/p&&p&tf.nn.conv2d:卷积层&/p&&p&tf.nn.max_pool:池化层&/p&&p&&b&3)训练算法(参考图中“算法训练”)&/b&&/p&&p&前面提到而tensorflow的编程思维是训练算法一步一步逼达到精确,训练的核心就是“损失函数”和“优化器”,其中“损失函数”需要我们自己去实现,“优化器”只需要调用tensorflow提供的即可,如果是大神级别的,估计可以自己实现优化器。&/p&&p&&b&4)算法应用(图中没有画出)&/b&&/p&&p&这一步是水到渠成的,算法训练OK后,直接应用即可,这部分不是关键,不详细展开。&/p&&p&以上步骤是环环相扣的:&b&算法用到了训练数据,损失函数调用了算法,优化器调用了损失函数&/b&。&/p&&p&&br&&/p&&p&下面介绍一下tensorflow的关键概念以及之间的联系:&/p&&p&1)输入:指训练数据集中的输入数据,tensorflow的数据对象是张量,因此输入数据也是张量;&/p&&p&2)结果:指训练数据集中和输入数据对应的结果数据,输入数据和结果数据的用途不同,下面会详细介绍,这两个数据都是我们要&b&提前准备&/b&的。&/p&&p&3)算法(图中的“算法定义”):算法是需要我们自己根据业务来定义的,算法依赖两个常见的tensorflow概念,一个叫占位符,一个叫变量;算法可以是传统的机器学习算法,也可以是深度学习算法。&/p&&p&4)占位符:为何要多出占位符这个概念,我开始也理解了半天,其实这里的占位符就是和传统编程的函数参数类似,在定义函数的时候我们用参数来代表输入数据,在定义算法或者损失函数的时候我们用占位符来代表训练数据集中的数据,等到真正运行的时候再将训练数据替换占位符。&/p&&p&5)变量:tensorflow的变量和传统编程里面的变量用途差异很大,导致我理解花费了较长时间,后来才明白变量是tensorflow的核心概念,所谓的tensorflow训练,其实就是通过优化器来调整变量的值,使得算法更加精确;&/p&&p&6)损失函数(图中的“损失函数”):损失函数是tensorflow训练的核心,tensorflow通过优化器调整变量的值,使得算法更加精确,如何判断算法更加精确呢?其实就是通过损失函数来判断,损失函数输出值越小,算法就更加精确。&/p&&p&损失函数其实就是将算法结果(图中“算法结果”)和训练结果(图中的“结果”)进行对比,同算法一样,损失函数在定义的时候也用到了占位符,这个占位符代表的是训练数据集的结果数据。&/p&&p&看了吴恩达的课程,里面介绍算法的时候用了cost function(成本函数),我简单研究了一下,这个函数和损失函数是相关的,简单来说:&b&损失函数是针对单个训练样本的,成本函数是针对所有训练样本的均值&/b&,我们只需要定义损失函数,我猜测优化器会基于损失函数来计算成本函数,更多请参考:&a href=&https://www.zhihu.com/question/& class=&internal&&机器学习中的目标函数、损失函数、代价函数有什么区别?&/a&&/p&&p&&br&&/p&&p&我们以一个最简单的求解方程式为例:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-2bc8ef320d27d9a3d7eb5cdb2a53730c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&2880& data-rawheight=&1800& class=&origin_image zh-lightbox-thumb& width=&2880& data-original=&https://pic1.zhimg.com/v2-2bc8ef320d27d9a3d7eb5cdb2a53730c_r.jpg&&&/figure&&p&输出如下(注意:每次执行不一定输出完全一样):&/p&&p&5.4*5.0+1.88= 28.88&/p&&p&9.+2.69&/p&&p&9.+2.63&/p&&p&9.+2.66&/p&&p&9.+2.6&/p&&p&可以看到a的值从5.4-&9.4589-&.....-&9.46154,b的值从1.88-&2.67161-&......-&2.69231&/p&&p&玩过深度学习的可能还会有一个类似的概念:激活函数,激活函数不是tensorflow必须的,而只有在使用神经网络算法的时候要用到,例如上述函数求解就不会用到激活函数,但算法和损失函数是必须的。&/p&
尝试tensorflow几个月了,对照着几本书一行代码一行代码的敲了一些案例,从刚开始一脸懵逼到现在基本上能够看懂完整的tensorflow样例代码,中间遇到了很多困惑和踩了很多坑,这个体验跟我从C++转换为Java完全不同。编程代码的切换,更多的时候是语法和API的…
&p&作者:拾荒者000&/p&&p&链接:&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/66115& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&面试知识点总结-图像处理/CV/ML/DL到HR面_笔经面经_牛客网&/a&&/p&&p&来源:牛客网&/p&&p&&br&&/p&&p&&b&有点长,感兴趣的看看,不喜勿喷!!!&/b&&/p&&p&&br&&/p&&p&把一些相关的知识点总结一下。这个比长,感兴趣的挑自己相关的那部分看。&/p&&p&都是一些基础知识,面相关岗位问到的比较多。&/p&&p&&b&(回答时对算法要有一定的见解,最好不要照书上的背)&/b&&/p&&p&(一)
机器学习方面&/p&&h2&&b&SVM&/b&&/h2&&p&1、
支撑平面---和支持向量相交的平面;;;分割平面---支撑平面中间的平面(最优分类平面)&/p&&p&2、
SVM不是定义损失,而是定义支持向量之间的距离à目标函数看PPT13~17页&/p&&p&3、
正则化参数对支持向量数的影响&/p&&p&&b&LR&/b&&/p&&p&1、
LR的形式:h(x)=g(f(x));其中x为原始数据;f(x)为线性/非线性回归得到的值,也叫判定边界;g()为Sigmoid函数,最终h(x)输出范围为(0,1)&/p&&p&&b&LR对样本分布敏感。&/b&&/p&&p&&b&***LR和朴素贝叶斯(NB)的区别?&/b&&/p&&p&LR是loss最优化求出的,NB是统计跳过loss最优,直接得出权重&/p&&p&NB比LR多了一个条件独立假设&/p&&p&一个是判别模型(LR),一个是生成模型(NB)&/p&&p&1、
判别模型和生成模型???&/p&&p&&br&&/p&&p&2、
机器学习中,LR和SVM有什么区别?à&/p&&p&两者都可以处理非线性问题;LR和SVM最初都是针对二分类问题的。&/p&&p&SVM最大化间隔平面、LR极大似然估计;SVM只能输出类别,不能给出分类概率&/p&&p&两者loss function不同;LR的可解释性更强;SVM自带有约束的正则化&/p&&p&2、LR为什么用sigmoid函数,这个函数有什么优点和缺点?为什么不用其他函数?(sigmoid是伯努利分布的指数族形式)&/p&&p&Logistic Regression 只能用于二分类,而sigmoid对于所有的输入,得到的输出接近0或1&/p&&p&Sigmoid存在的问题:梯度消失、其输出不是关于原点中心对称的(训练数据不关于原点对称时,收敛速度非常慢à输入中心对称,得到的输出中心对称时,收敛速度会非常快)、计算耗时&/p&&p&Tanh激活函数存在的问题:梯 度消失、计算耗时,但是其输出是中心对称的&/p&&p&ReLU:其输出不关于原点对称;反向传播时,输入神经元小于0时,会有梯度消失问题;当x=0时,该点梯度不存在(未定义);&/p&&p&ReLu失活(dead RELU)原因:权重初始化不当、初始学习率设置的非常大&/p&&p&Maxout:根据设置的k值,相应的增大了神经元的参数个数&/p&&p&Xavier权重初始化方法:对每个神经元的输入开根号&/p&&p&3、
SVM原问题和对偶问题关系?&/p&&p&SVM对偶问题的获得方法:将原问题的目标函数L和约束条件构造拉格朗日函数,再对L中原参数和lambda、miu分别求导,并且三种导数都等于0;再将等于0的三个导数带入原目标函数中,即可获得对偶问题的目标函数&/p&&p&关系:原问题的最大值相对于对偶问题的最小值&/p&&p&4、
KKT(Karysh-Kuhn-Tucker)条件有哪些,完整描述?&/p&&p&KKT条件是思考如何把约束优化转化为无约束优化à进而求约束条件的极值点&/p&&p&&b&下面两个思考题的答案都是&/b& &b&在需要优化的目标为凸函数(凸优化)的情况下。&/b&&/p&&p&&b&问题一:当一个优化问题是凸优化问题时,可以直接用KKT条件求解。&/b&&/p&&p&5、
凸优化(可行域为约束条件组成的区域)&/p&&p&5、 SVM的过程?Boost算法?&/p&&p&6、
决策树过拟合哪些方法,前后剪枝&/p&&p&决策树对训练属性有很好的分类能力;但对位置的测试数据未必有好的分类能力,泛化能力弱,即发生过拟合。&/p&&p&防止过拟合的方法:剪枝(把一些相关的属性归为一个大类,减少决策树的分叉);随机森林&/p&&p&7、
L1正则为什么可以把系数压缩成0,坐标回归的具体实现细节?&/p&&p&L1正则化可以实现稀疏(即截断),使训练得到的权重为0;&/p&&p&l1正则会产生稀疏解,即&b&不相关的的特征对应的权重为0&/b&,就相当于降低了维度。但是l1的求解复杂度要高于l2,并且l1更为流行&/p&&p&正则化就是对loss进行惩罚(加了正则化项之后,使loss不可能为0,lambda越大惩罚越大--&lambda较小时,约束小,可能仍存在过拟合;太大时,使loss值集中于正则化的值上)&/p&&p&正则化使用方法:L1/L2/L1+L2&/p&&p&8、
LR在特征较多时可以进行怎样的优化?--&L1正则有特征选择的作用&/p&&p&如果是离线的话,L1正则可以有稀疏解,batch大点应该也有帮助,在线的解决思路有ftrl,rds,robots,还有阿里的mlr。当然还可以用gbdt,fm,ffm做一些特性选择和组合应该也有效果。&/p&&p&9、
机器学习里面的聚类和分类模型有哪些?&/p&&p&分类:LR、SVM、KNN、决策树、RandomForest、GBDT&/p&&p&回归:non-Linear regression、SVR(支持向量回归--&可用线性或高斯核(RBF))、随机森林&/p&&p&聚类:Kmeans、层次聚类、GMM(高斯混合模型)、谱聚类&/p&&p&10、 &b&聚类算法&/b&(可以作为监督学习中稀疏特征的处理):Kmeans、层次聚类、GMM(高斯混合模型)&/p&&p&聚类算法&b&唯一用到的信息&/b&是样本和样本之间的&b&相似度。&/b&&/p&&p&&b&评判聚类效果准则:&/b&高类间距,低类内距;高类内相似度,低类间相似度。&/p&&p&&b&相似度&/b&与距离负相关。&/p&&p&图像之间的距离的度量是对每个像素操作,最后获得距离&/p&&p&Kmeans和GMM需要制定类别K&/p&&p&&b&A、Kmeans算法:&/b&对于已有的未标记的样本,同时给定结果聚类的个数K;目标是把比较接近的样本归为一类,总共得到k个cluster&/p&&p&Kmeans中初始k个中心点(&b&Kmeans对中心点的选取比较敏感&/b&)的选取方法:a、随机选取k个初始的样本中心点(b、直接选取k个样本点),然后计算每个样本到k个选定的样本中心点的距离;再比较待聚类样本到初始样本点的距离,将待聚类的样本指定为距离较近的各个类别(离哪个近,就归为哪一类);最后重新计算聚类中心:;重复迭代。&/p&&p&&b&Kmeans收敛状态:&/b&&/p&&p&&b&(1)聚类中心不再变化(2)每个样本到对应聚类中心的距离之和不再有很大的变化&/b&&/p&&p&&br&&/p&&p&&b&损失函数àloss function后面的||xn-uk||^2表示采用欧式距离作为距离度量:&/b&&/p&&p&&br&&/p&&p&Kmeans可以用于图像分割;&/p&&p&Kmeans的缺点:对初始样本点的选取敏感;对异常点(如:一个远离大多数点的孤立的点)的免疫不好;对团状数据点效果较好,对带状效果不好;&/p&&p&Kmeans与Kmeans++初始化的区别:Kmeans初始样本点的选取是随机选取的;Kmeans++是选取最远的k个点作为初始样本点&/p&&p&&b&A、&/b& &b&层次聚类&/b&&/p&&p&有两种层次聚类--)bottom-up(从多个类聚成一个类--&每次都是合并最相似的两个类)、up-bottom(一个类到多个类--&每次都剔除最不相似的类);层次距离是一种树状结构&/p&&p&&br&&/p&&p&&b&Kmeans与层次聚类对比:&/b&&/p&&p&&br&&/p&&p&C、高斯混合模型à由单高斯模型线性加权组合&/p&&p&&br&&/p&&p&&b&初始参数:&/b&样本点属于各个高斯函数的概率,以及每个高斯函数的均值和方差(参数都是随机给定)&/p&&p&&br&&/p&&p&GMM求解过程àEM算法求解&/p&&p&E-step(由已知的均值和方差估算在该参数下的样本点的分布)和M-step(由样本点的分布再求均值和方差)是&b&EM算法&/b&。&/p&&p&à这和EM求解的过程一样&/p&&p&Kmeans是硬聚类(每个样本只能属于某一类);而GMM对于每个样本点,都有属于每个类的概率。&/p&&p&GMM优势:多个分布的组合、速度快(EM算法求解)、最大数据似然概率&/p&&p&GMM劣势:对初始化值敏感,容易陷入局部最优、需指定k个高斯分布;对非凸分布数据集效果不好。&/p&&p&11、
kmeans的分类过程,用kmeans的数据有什么样的分布(高斯分布),loss函数是啥?&/p&&p&见问题“9”&/p&&p&12、
逻辑斯特回归和线性回归的损失函数?&/p&&p&13、
正则化为什么能防止过拟合?(&a href=&https://www.zhihu.com/question/& class=&internal&&&span class=&invisible&&https://www.&/span&&span class=&visible&&zhihu.com/question/2070&/span&&span class=&invisible&&0829&/span&&span class=&ellipsis&&&/span&&/a&)&/p&&p&过拟合表现在训练数据上的误差非常小,而在测试数据上误差反而增大。其原因一般是模型过于复杂,过分得去拟合数据的噪声. 正则化则是对模型参数添加先验,使得模型复杂度较小,对于噪声的输入扰动相对较小。&/p&&p&正则化时,&b&相当于是给模型参数w&/b& &b&添加了一个协方差为1/lambda&/b& &b&的零均值高斯分布先验。&/b& &b&对于lambda =0,也就是不添加正则化约束,则相当于参数的高斯先验分布有着无穷大的协方差,那么这个先验约束则会非常弱,模型为了拟合所有的训练数据,w可以变得任意大不稳定。lambda越大,表明先验的高斯协方差越小,模型约稳定,&/b& &b&相对的variance(方差)也越小。&/b&&/p&&p&&b&10、关键词&/b&&/p&&p&1、训练集测试集验证集划分方式&/p&&p&&a href=&https://www.zhihu.com/question//answer/& class=&internal&&&span class=&invisible&&https://www.&/span&&span class=&visible&&zhihu.com/question/2658&/span&&span class=&invisible&&8665/answer/&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&2、TPR(Recall)、FPR、ROC 、AUC(与准确率和召回率有关)&/p&&p&&a href=&https://link.zhihu.com/?target=http%3A//blog.csdn.net/feiyang2010jin/article/details/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&blog.csdn.net/feiyang20&/span&&span class=&invisible&&10jin/article/details/&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&3、坐标轴下降法-&用来解决loss function对参数不可导时(此时梯度下降算法不再有效),求取参数更新量的方法&/p&&p&坐标轴下降法和梯度下降法具有同样的思想,都是沿着某个方向不断迭代,但是梯度下降法是沿着当前点的负梯度方向进行参数更新,而坐标轴下降法是沿着坐标轴的方向。&/p&&p&&a href=&https://link.zhihu.com/?target=http%3A//blog.csdn.net/ymmxz/article/details/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&blog.csdn.net/ymmxz/art&/span&&span class=&invisible&&icle/details/&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&lasso(Least absolute shrinkage and selection operator)&/p&&p&坐标轴下降法和最小角回归法(&a href=&https://link.zhihu.com/?target=http%3A//blog.csdn.net/bbbeoy/article/details/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&blog.csdn.net/bbbeoy/ar&/span&&span class=&invisible&&ticle/details/&/span&&span class=&ellipsis&&&/span&&/a&)都是求解Lasso回归的方法。&/p&&p&4、&a href=&https://link.zhihu.com/?target=http%3A//blog.csdn.net/ymmxz/article/details/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&批量梯度下降算法BGD,小批量梯度下降法MBGD,随机梯度下降算法SGD的比较&/a&&/p&&p&&a href=&https://link.zhihu.com/?target=http%3A//blog.csdn.net/yMMxz/article/details/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&blog.csdn.net/yMMxz/art&/span&&span class=&invisible&&icle/details/&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&5、学习率褪火 (衰减)--&没学习多少次都会将学习率减少(lr/decay_rate)&/p&&p&6、多分类问题转二分类方法--&组合多个二分类器来实现多分类器,方法如下:&/p&&p&a.一对多法(one-versus-rest,简称OVR SVMs)。训练时依次把某个类别的样本归为一类,其他剩余的样本归为另一类,这样k个类别的样本就构造出了k个SVM。分类时将未知样本分类为具有最大分类函数值的那类。&/p&&p&b.一对一法(one-versus-one,简称OVO SVMs或者pairwise)。其做法是在任意两类样本之间设计一个SVM,因此k个类别的样本就需要设计k(k-1)/2个SVM。当对一个未知样本进行分类时,最后得 票最多的类别即为该未知样本的类别。&/p&&p&c.层次支持向量机(H-SVMs)。层次分类法首先将所有类别分成两个子类,再将子类进一步划分成两个次级子类,如此循环,直到得到一个单独的类别为止。&/p&&p&&b&说明:LR的多分类也可以用上面的方法&/b&。&/p&&p&&a href=&https://link.zhihu.com/?target=http%3A//blog.sina.com.cn/s/blog_4af0fab001010ybp.html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&blog.sina.com.cn/s/blog&/span&&span class=&invisible&&_4af0fab001010ybp.html&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&a href=&https://link.zhihu.com/?target=http%3A//blog.sina.com.cn/s/blog_4c98bd.html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&blog.sina.com.cn/s/blog&/span&&span class=&invisible&&_4c98bd.html&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&1、
跳出局部极小值方法&/p&&p&--&优化方法,如momentum updata、Adam等;调整学习率&/p&&p&4、显著性检验&/p&&p&5、线性回归、广义线性回归&/p&&p&7、最小二乘误差及其概率解释&/p&&p&9、LDA(二类、多类)&/p&&p&11、类别不平衡解决方法:欠采样、过采样、阈值移动&/p&&p&12、模型融合方法:bagging、随机森林、ADABOOST、 Gradient Boosting Tree&/p&&p&前面两种是综合多个模型的结果;后面两个是重复训练&/p&&p&&b&Bagging--&&/b&模型融合(随机森林也属于模型融合);有两种方法(bagging对朴素贝叶斯没什么用,因为NB太稳定,提升不大)&/p&&p&&b&ADABOOST&/b&(boosting一类的算法)的步骤--&重复迭代和训练;每次分配给错的样本更高的权重;最简单的分类器(如:线性分类器的二分类)叠加&/p&&p&ADABOOST分类过程详细解释如下:先用一个简单的分类器将样本分成两类;为分错的样本分配更高的权重(初始权重设为1/N即可,N为样本数);重复上次两个过程(再次分类,并为错误的样本设置更高的权重);最后将所有样本数据正确分类后,将各个分类器叠加。&/p&&p&Gradient Boosting Tree:和Adaboost的思路类似,解决回归问题。&/p&&p&14、
决策树、随机森林、GBDT、XGBOOST&/p&&p&&b&A、决策树(有监督学习):&/b&&/p&&p&&br&&/p&&p&建立决策树的关键,即在当前状态下选择哪个属性作为分类依据。根据不同的目标函数,建立决策树主要有一下三种方法:ID3、C4.5、CART&/p&&p&&br&&/p&&p&&b&B、Bootstraping:&/b&不需要外界帮助,仅依靠自身力量让自己变得更好。&/p&&p&&b&C、随机森林(&/b&bagging+决策树):&/p&&p&&br&&/p&&p&Bootstrap采样:有放回的重复抽样&/p&&p&&br&&/p&&p&&b&D、Adaboost:&/b&&/p&&p&教程第11节 决策树随机森林……pdf –p37&/p&&p&E、
GBDT—梯度下降决策树(有监督学习)&/p&&p&15、
熵 信息增益(ID3算法)、信息增益率(C4.5算法)、基尼系数(CART)&/p&&p&教程第11节 决策树随机森林……pdf -p10&/p&&p&16、
投票机制&/p&&p&1)一票否决(一致表决)、2)少数服从多数、3)有效多数(加权)&/p&&p&16、数值优化理论:梯度下降、牛顿、共轭梯度&/p&&p&&b&牛顿法(dk为更新量)--&引入了二阶偏导(Hessian矩阵)--&求解无约束优化(迭代的初始值一般是随机选取的)&/b&&/p&&p&&b&缺点:不能保证Hessian矩阵(二阶偏导组成的矩阵)一定可逆&/b&&/p&&p&17、SVM、SVR、软间隔SVM、SMO&/p&&p&18、SVM核函数&/p&&p&核函数主要是将线性不可分的数据映射到高位空间再进行分类&/p&&p&核函数的种类:&/p&&p&&b&高斯核是用的最多的核函数à对训练数据分类效果最好&/b&&/p&&p&&b&高斯核的缺点:容易过拟合,需要更多的样本、泛化能力弱&/b&&/p&&p&19、距离方法:闵科夫斯基 、VDM、马氏距离&/p&&p&20、K-means、KNN、LVQ、DBSCAN、&b&谱聚类&/b&&/p&&p&21、降维方法:LDA、PCA、SVD&/p&&p&22、特征选择方法:总体分为过滤型、包裹型、嵌入型(à基于模型的;如:正则化)&/p&&p&Relief、LVW、正则化(L1/L2)&/p&&p&特征选择的原因:特征存在冗余(特征相关度太高)、掺杂了噪声(特征对预测结果有负影响)&/p&&p&L1正则化是截断效应(实现稀疏,把不相关的特征的系数变成0);L2正则化是缩放效应,使最后得到的参数很小&/p&&p&25、交叉熵?KL散度(也叫KL距离)?&/p&&p&25、最大熵模型、EM(Expectation Maximization)算法&/p&&p&最大熵模型的求解可以转化为对偶问题的极大化;&/p&&p&26、特征--&数据中抽取出来的对结果预测有用的信息&/p&&p&特征工程--&使用专业背景知识和技巧处理数据,使得特征能在机器学习算法上发挥很好的作用的过程。&/p&&p&27、交叉验证&/p&&p&K折交叉验证(K-flod cross validation)&/p&&p&&a href=&https://link.zhihu.com/?target=http%3A//www.cnblogs.com/boat-lee/p/5503036.html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cnblogs.com/boat-lee/p/&/span&&span class=&invisible&&5503036.html&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&将训练集分成K份;依次将第i(i=k,…,1)折作为交叉验证集,其余k-1折(除第i折外)作为测试集;总共进行k次,每进行完一次训练,都用test data去测试,得到k个准确率;最后取k个准确率的均值作为最后结果。&/p&&p&28、过拟合和欠拟合&/p&&p&欠拟合(under fitting):参数过少,不足以表达数据的特征&/p&&p&过拟合(over fitting):参数过多,过渡拟合数据,泛化能力差(训练时的准确率很好,但测试的时候就很差)&/p&&p&欠拟合解决方法:找更多的特征;减小正则化系数&/p&&p&(二)深度学习方面&/p&&h2&1、MLP的BP过程?delta的意义?每一层节点的残差?&/h2&&p&2、max pool层怎么做的?&/p&&p&3、caffe架构?caffe如何构建网络?&/p&&p&4、去卷积过程(转置卷积)?&a href=&https://link.zhihu.com/?target=http%3A//blog.csdn.net/fate_fjh/article/details/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&blog.csdn.net/fate_fjh/&/span&&span class=&invisible&&article/details/&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&5、单个神经元是否线性可分(模式识别的概念,是否能用用线性函数将样本分类)?&/p&&p&是否线性可分是对于样本集的;线性可分是数据集合的性质,和分类器没啥关系。&/p&&p&可以通过线性函数分类的即为线性可分&/p&&p&6、深度学习模型的发展?深度学习的评价标准?&/p&&p&7、强化学习应用场景和方法?adaboost和cascade adaboost?损失函数有哪些?分类回归聚类的区别与联系?目标检测的三种方法?&/p&&p&8、目标检测常用的网络,RCNN, SPP, Fast RCNN, Faster RCNN的区别?&/p&&p&9、随机梯度下降,标准梯度?softmax公式?信息熵公式?&/p&&p&10、SVM和softmax的区别?&/p&&p&Svm具有附加稳定性,当样例满足边界条件时,该样例不会影响损失函数;而softmax将考虑所有的样例&/p&&p&11、训练时,mini-batch与GPU的内存匹配--&训练网络时的mini batch是由GPU的内存决定的。&/p&&p&12、正则化:正则化表现的是对高维度W的惩罚力度,当正则化系数(lambda)很大时,使w变的非常小,最终的结果是函数变得非常平滑。正则化系数(lambda)越小,拟合程度越高,效果越好。&/p&&p&13、batch normalization中gamma和beta初始化为1和0,然后在训练中优化他们&/p&&p&BN可以减少dropout(可以不要dropout)&/p&&p&14、当训练到最后,loss值很大,但精度在上升?--&说明loss变化很小,需要增大学习率&/p&&p&梯度爆炸(loss发散,出现nan)--&学习率很大,需要减小学习率&/p&&p&15、如果loss开始一直不变,但是从某点开始下降的原因à因为初始值选定的不好,错误的初始值会让梯度一开始接近0。&/p&&p&16、优化策略的比较:&/p&&p&&a href=&https://link.zhihu.com/?target=http%3A//www.cnblogs.com/denny402/p/5074212.html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cnblogs.com/denny402/p/&/span&&span class=&invisible&&5074212.html&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&SGD--&Momentum updata--&Nesterov Momentum updata--&AdaGrad update--& RMSProp update--&Adam update&/p&&p&以上都是一阶优化方法,对于二阶优化方法(BFGS和L-BFGS),二阶优化方法不需要学习率这个参数,可以直接对目标进行优化。&/p&&p&SGD:根据梯度直接更新w&/p&&p&Momentum updata:不是通过计算得到的梯度直接更新w,而是增加一个变量V(定义为速度),改变了和梯度直接相关,再用V更新w&/p&&p&Nesterov Momentum updata:更新方式&/p&&p&AdaGrad update:每个参数自适应学习速率的方法(因为参数空间的每一维都有自己的学习速率,它会根据梯度的规模的大小动态变化)&/p&&p&长时间训练时,AdaGrad算法会发生什么?--&根据更新公式,不断有正数加到cache中,更新步长会逐渐衰减到0,最后完全停止学习。&/p&&p&1e-7:平滑因子,防止除数变成0&/p&&p&RMSProp update:解决了AdaGrad中会停止更新的问题&/p&&p&Adam update:&/p&&p&adagrad记录的是梯度的二阶矩,并按指数和形式表示&/p&&p&Momentum的作用:稳定梯度的方向&/p&&p&17、模型集成&/p&&p&先单独训练多个不同的模型;在训练时,将每个模型的结果取平均值即可。--&可提升精度&/p&&p&缺点是必须单独训练不同的模型&/p&&p&18、Cross entropy loss 和sigmod Cross entropy loss的区别?&/p&&p&&a href=&https://link.zhihu.com/?target=http%3A//blog.csdn.net/u/article/details/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&blog.csdn.net/u&/span&&span class=&invisible&&4/article/details/&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&看博文里写的就没啥区别&/p&&p&&b&SmoothL1Loss&/b&&/p&&p&优势:smoothL1Loss在接近0的时候,看起来像二次函数&/p&&p&&b&SoftMaxWithLoss&/b&&/p&&p&19、没有隐藏层的神经网络是线性的,只能处理线性可分的问题(线性可分问题从二维角度看,即分界线是一条直线,多维就是存在线性超平面将其分类)。&/p&&p&20、卷积神经网络中,在没有zero-padding的情况下,当输入为7*7,filter为3*3,stride为3是,这里的stride是不允许这样设置的,因为这样的话输出就是2.333*2.333(不是整数),所以zero-padding避免了这种情况的发生&/p&&p&Zero-padding的另一种作者用,就是避免图像在卷积神经网络中向前传播时,图像提取出来的特征越来越小,zero-padding可以保证图像的尺寸。&/p&&p&21、定位和检测的区别:&/p&&p&区别在于要找的目标的数量;&/p&&p&对于定位,图像中只有一个或一种对象,用框标出对象的位置&/p&&p&对于检测,图像中有多个目标或多种对象。&/p&&p&23、数据不足时:&/p&&p&数据增强、transfer learning(fine-tuning:根据数据集的大小,训练网络的最后一层或者最后几层)、修改网络&/p&&p&Fine-tuning:固定网络,即为学习率为0、需要训练的层的学习率比较高(原来训练好的网络的学习率的十分之一)、当预训练的层(中间层)需要改变时,学习率很小(如原学习率的一百分之一)&/p&&p&24、goolenet和resnet中用到的结构(瓶颈结构 bottlenecks:输入输出相同)&/p&&p&1x1的卷积层相当于全连接层--&遍历所有像素&/p&&p&3x3的卷积可以替换成1x3和3x1的不对称卷积(inception v3)--&减少参数&/p&&p&25、CNN中 卷积的实现&/p&&p&傅里叶变换可以用于大卷积核的运算&/p&&p&&b&im2col&/b&(主要的):&/p&&p&caffe和torch不支持使用16位计算。&/p&&p&26、WindowDataLayer(窗口数据),用于检测,可以读取hdf5数据。&/p&&p&27、Caffe中的交叉验证?&/p&&p&定义两个prototxt文件(训练阶段和测试阶段),train_val.prototxt和deploy.后者用于测试集中,测试阶段的train_val.prototxt用于验证。&/p&&p&28、其他框架?&/p&&p&Torch--&C和Lua语言写的,Torch中主要的是Tensors类&/p&&p&TensorFlow--&pip安装,TensorBoard为可视化工具 ,支持多GPU,支持分布式训练(多机),支持RNN&/p&&p&Theano、MxNet、&/p&&p&29、语义分割(Semantic Segmentation)和实例分割(Instance Segmentation)&/p&&p&语义分割--&操作像素,标记每个像素所属的标签à不关心具体的类,同一类目标标记为相同的像素&/p&&p&实例分割à 输出类别同时标记像素(同时检测并分割)--&关心目标的类,不同目标标记为不同的像素(同一类中的目标也标记为不同 的像素)&/p&&p&&b&分割时使用全卷积网络(以filter为1*1的卷积层替换fc层,&/b&操作每个像素)可以得到所有像素的标签,而不用先将图像分成许多小块,再通过卷积为块 的中心像素分类(这样就很耗时)&/p&&p&30、反卷积(卷积转置)&/p&&p&31、Spatial Transformer Networks(空间变换网络)&/p&&p&32、无监督学习&/p&&p&聚类等、PCA(线性的)&/p&&p&自动编码器(Auto encoder)、Generative Adversarial Networks(GAN)&/p&&p&(三)图像方面&/p&&h2&1、opencv遍历像素的方式?&/h2&&p&2、LBP原理?&/p&&p&3、HOG特征计算过程,还有介绍一个应用HOG特征的应用?&/p&&p&4、opencv里面mat有哪些构造函数?&/p&&p&5、如何将buffer类型转化为mat类型?&/p&&p&6、opencv如何读取png格式的图片?(我貌似记得opencv不能读取png格式的图片,好像每种格式图片的表头不一样,需要转化,给他说了半天他,他也没明白)&/p&&p&7、opencv如何读取内存图片?&/p&&p&8、opencv里面有哪些库?&/p&&p&9、用过opencv里面哪些函数?(我顺带回答了一下canny,HR又问opencv里面有c-a-n-n-y有这几个字母的函数吗,尴尬。。。又问我如何自己写canny边缘检测算法)&/p&&p&10、opencv里面为啥是bgr存储图片而不是人们常听的rgb?&/p&&p&12、你说opencv里面的HOG+SVM效果很差?他就直接来了句为啥很差?差了就不改了?差了就要换其他方法?、&/p&&p&13、讲讲HOG特征?他在dpm里面怎么设计的,你改过吗?HOG能检测边缘吗?里面的核函数是啥?那hog检测边缘和canny有啥区别?&/p&&p&13、如何求一张图片的均值?(考虑了溢出和分块求解,貌似不满意。。。回头看看积分图里面如何解决溢出的。)&/p&&p&14、如何写程序将图像放大缩小?(我回答的插值,不太对。。。比如放大两倍可以插值,那放大1.1倍呢,)--&放大1.1倍也可以插值&/p&&p&15、如何遍历一遍求一张图片的方差?(回答的是采用积分图,并让我推导这样为啥可行。这个问题以前帮同学解决过。。。)&/p&&p&(四)编程方面(C++/Python)&/p&&p&1、
全排列&/p&&p&2、
矩阵求最长连续递增的路径长度?à&/p&&p&329. Longest Increasing Path in a Matrix &a href=&https://link.zhihu.com/?target=https%3A//leetcode.com/problems/longest-increasing-path-in-a-matrix/discuss/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&leetcode.com/problems/l&/span&&span class=&invisible&&ongest-increasing-path-in-a-matrix/discuss/&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&3、vector和list的区别?&/p&&p&4、c里面有哪些内存申请方法?&/p&&p&5、虚函数和纯虚函数的区别?&/p&&p&6、重载、覆盖、重写的区别?&/p&&p&7、用过C++11吗?用过里面的哪些?&/p&&p&8、有哪些类型转换函数?以及用在哪些场景?&/p&&p&9、用过GCC吗?会linux吗?&/p&&p&10、堆和栈的区别?&/p&&p&11、Python中定义类的私有变量?在变量前面加双下划线“__”,如:__x,则为私有变量&/p&&p&11、请描述指针数组和数组指针的区别 &br&指针数组:array of pointers,即用于存储指针的数组,也就是数组元素都是指针&/p&&p&数组指针:a pointer to an array,即指向数组的指针&/p&&p&还要注意的是他们用法的区别,下面举例说明。&/p&&p&int* a[4] 指针数组&/p&&p&表示:数组a中的元素都为int型指针&/p&&p&元素表示:*a[i]
*(a[i])是一样的,因为[]优先级高于*&/p&&p&int (*a)[4] 数组指针&/p&&p&表示:指向数组a的指针&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&元素表示:(*a)[i]
(五)开放性问题
&/code&&/pre&&/div&&p&1、最后问面试官的问题&/p&&p&(1)我以后的面试要注意哪些问题,提点建议?或为了更好地胜任这个岗位,我还需要补充哪些技能? 入职后是否有产品培训和技能培训?&/p&&p&(2)当感觉还可以时,就问公司培训制度,晋升机制,以及自己来了应该做什么,当感觉没戏时,就问,你给我一些关于职业的建议吧,以及怎么提升自己&/p&&p&&b&3、&/b& &b&HR面试(自己总结的)&/b&&/p&&p&(1)
期望薪资&/p&&p&(2)
你理想的工作是什么样的?&/p&&p&&br&&/p&&p&(3)
关于你以后的工作打算,你有什么想法?&/p&&p&&br&&/p&&p&(4)
职业规划&/p&&p&(5)
做项目时遇到的困难及解决方法?&/p&&p&(6)做科研辛苦吗?&/p&&p&(6)
对公司的看法?为什么应聘我们公司?&/p&&p&(7)
你在同龄人中处于什么档次 和大牛的差距在哪?&/p&&p&(8)
你跟同龄人相比有什么优势?&/p&&p&(9)
你除了我们公司,还投了哪些公司?&/p&&p&说几个&/p&&p&(10)
BAT之外,你最最想去的是哪家公司,为什么?&/p&&p&(11)
如果我们给你发offer,你还会继续秋招么?&/p&&p&(12)
【跨专业】本科+研究生在本专业学了多年,为什么没在本行业求职?&/p&&p&(13)
【家离企业所在地较远】为什么想来xx地方工作,父母支持么?&/p&&p&(14)
【对象】如果对象和你在意向工作地发生分歧,你怎么处理?&/p&&p&(15)
优缺点?&/p&&p&(16)
介绍你一次最失败的一次经历?&/p&&p&(17)
介绍你一次最成功的一次经历?&/p&&p&(18)
这份工作你有想过会面对哪些困难吗?&/p&&p&(19)
如果你发现上司做错了,你将怎么办?&/p&&p&(19)你觉得大学生活使你收获了什么?&/p&&p&(20)你对加班的看法?&/p&&p&(21)当公司给出的待遇偏低不足以吸引到优秀人才的时候,你该怎么去招聘?&/p&&p&&b&这些知识点都是我自己总结的,包括HR面的问题。&/b&&/p&&p&&br&&/p&&p&&b&其中有的问题给出了回答,如果有误请指正,谢谢!&/b&&/p&&p&&b&感兴趣的看看,不喜勿喷!!!&/b&&/p&
作者:拾荒者000链接:来源:牛客网 有点长,感兴趣的看看,不喜勿喷!!! 把一些相关的知识点总结一下。这个比长,感兴趣的挑自己相关的那部分看。都是一些基础知识,面相关岗位问到的比较多。(…
&p&&i&&b&摘要:&/b&&/i& 本文介绍TensorFlow相关的最新研究论文与最流行的深度学习开源软件,其中包括很多高级模块的介绍,希望能够帮助到IT界的TF BOYS。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-0ec3f2b33cfd5d9039b9_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&750& data-rawheight=&500& class=&origin_image zh-lightbox-thumb& width=&750& data-original=&https://pic1.zhimg.com/v2-0ec3f2b33cfd5d9039b9_r.jpg&&&/figure&&p&众所周知,TensorFlow是一个开源软件库,用于数值计算以及数据流图的使用。换句话说,它是建立深度学习模型的最佳工具之一。尽管&a href=&https://link.zhihu.com/?target=https%3A//www.techleer.com/articles/395-the-new-version-of-tensorflow-140-released/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&TensorFlow&/a&是在深度神经网络中进行&a href=&https://link.zhihu.com/?target=https%3A//www.techleer.com/articles/203-machine-learning-algorithm-backbone-of-emerging-technologies/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习&/a&和研究的主要目的而创建的,但是该库还是普遍的应用于各种其他领域。&/p&&p&这篇文章将会介绍一些具体的与&a href=&https://link.zhihu.com/?target=https%3A//www.techleer.com/articles/395-the-new-version-of-tensorflow-140-released/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&TensorFlow&/a&有关的各种论文和研究:&/p&&p&&b&Tensorflow论文:&/b&&/p&&p&&b&TensorFlow:异构分布式系统上的大规模机器学习:&/b&&/p&&p&“TensorFlow是一个用于表达机器学习算法的接口,也是执行这种算法的一个实现。使用TensorFlow表示的计算可以执行几乎很少或根本没有变化的异构系统,并且支持手机和平板电脑等移动设备以及大型分布式系统。“&/p&&p&这篇特定的文章主要描述了TensorFlow界面,以及使用它的开发的一些具体流程。&/p&&p&文章链接:&a href=&https://link.zhihu.com/?target=http%3A//download.tensorflow.org/paper/whitepaper2015.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&点击这里&/a&&/p&&p&&b&TF.Learn:TensorFlow的分布式机器学习高级模块:&/b&&/p&&p&TF.Learn用于&a href=&https://link.zhihu.com/?target=https%3A//www.techleer.com/articles/395-the-new-version-of-tensorflow-140-released/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&TensorFlow&/a&内部的分布式机器学习,也可以说它是一个高级的Python模块,它为用户提供一个简单易用的Scikit-learn风格的界面,以便进一步简化创建,配置,训练和评估过程,以及任何机器学习模型的实验。&/p&&p&这个使用通用高级语言的模块基本上把重点放在把机器学习带给非专业人士,以及那些希望进行基准测试,实施并且在研究人员在结构化的环境中比较他们的新方法。它比较强调的是API的易用性,性能,文档和一致性。&/p&&p&文章链接:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&点击这里&/a&&/p&&p&&b&深度学习软件框架的比较研究:&/b&&/p&&p&这项研究基本上是在几种类型的深度学习架构上进行的,目的是评估诸多框架在单个机器上被多线程和GPU使用时的性能:Nvidia Titan X的设置。&/p&&p&这篇论文给你提供了五个常用的&a href=&https://link.zhihu.com/?target=https%3A//www.techleer.com/articles/419-a-curated-list-of-dedicated-resources-tensorflow-papers/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&深度学习框架&/a&的比较研究:TensorFlow,Torch,Caffe,Neon和Theano,主要包括三个重要的方面:硬件的利用率,可扩展性和训练速度。&/p&&p&文章链接:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&点击这里&/a&&/p&&p&&b&带有MPI的分布式TensorFlow:&/b&&/p&&p&在这篇论文中,它介绍了Tensorflow最近提出的使用&a href=&https://link.zhihu.com/?target=https%3A//en.wikipedia.org/wiki/Message_Passing_Interface& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&消息传递接口(MPI)的&/a& TensorFlow来大规模地执行集群。基本方法只需要对&a href=&https://link.zhihu.com/?target=https%3A//www.techleer.com/articles/395-the-new-version-of-tensorflow-140-released/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&TensorFlow&/a&运行时进行最小限度的改变,从而导致所提议的通用实现,并且越来越多的开发者开始使用这一接口。&/p&&p&文章链接:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&点击这里&/a&&/p&&p&&b&全球标准化的基于转换的神经网络:&/b&&/p&&p&本文描述了SyntaxNet背后的模型,并引入了归一化的基于转换的全局神经网络模型,实现了最新的语音标注,依存分析和句子压缩的功能。&/p&&p&文章链接:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&点击这里&/a&&/p&&p&&b&TensorFlow:一个大规模机器学习系统:&/b&&/p&&p&这篇特定的论文描述了TensorFlow的数据流模型,与所有现有的系统相比,还从侧面显示了它在真实世界的几个应用中所取得的令人瞩目的性能。&/p&&p&文章链接:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&点击这里&/a&&/p&&p&有关更多信息:&a href=&https://link.zhihu.com/?target=https%3A//github.com/jtoy/awesome-tensorflow& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GitHub&/a&&/p&&p&本文由阿里云云栖社区组织翻译。&/p&&p&文章原标题《a-curated-list-of-dedicated-resources-tensorflow-papers》,&/p&&p&作者:Kirti Bakshi&/p&&p&译者:虎说八道&/p&&p&文章为简译,更为详细的内容,请查看&b&&a href=&https://link.zhihu.com/?target=http%3A//click.aliyun.com/m/39809/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&原文&/a&&/b& &/p&&p&&b&更多技术干货敬请关注云栖社区知乎机构号:&a href=&https://www.zhihu.com/org/a-li-yun-yun-qi-she-qu-48& class=&internal&&阿里云云栖社区 - 知乎&/a&&/b&&/p&
摘要: 本文介绍TensorFlow相关的最新研究论文与最流行的深度学习开源软件,其中包括很多高级模块的介绍,希望能够帮助到IT界的TF BOYS。众所周知,TensorFlow是一个开源软件库,用于数值计算以及数据流图的使用。换句话说,它是建立深度学习模型的最佳工具…
&figure&&img src=&https://pic1.zhimg.com/v2-7b664a973aa56cae3cdbee8_b.jpg& data-rawwidth=&1214& data-rawheight=&956& class=&origin_image zh-lightbox-thumb& width=&1214& data-original=&https://pic1.zhimg.com/v2-7b664a973aa56cae3cdbee8_r.jpg&&&/figure&&p&&b&文中提到的代码都可以在此找到:&a href=&https://link.zhihu.com/?target=https%3A//github.com/ne7ermore/deeping-flow/tree/master/lstm-cnn-classfication& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&传送门&/a&&/b&&/p&&p&笔者在&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&第一期&/a&提到:&/p&&p&”TensorFlow是目前最流行的深度学习框架,没有之一;背靠google这颗大树,Alpha狗光环加持,不得不是深度学习人员的首选。静态计算视图+数据流,灵活的底层API适合对深度神经网络有深刻认识的使用者,不过不够清晰的文档一直为人诟病,瑕不掩瑜。“&/p&&hr&&p&本期主要介绍TensorFlow(下称tf)的一些特点&/p&&ul&&li&熟悉的张量计算api:这是使用过numpy的朋友的福利,tf中对于张量的计算api和numpy非常类似,上手没有任何难度&/li&&li&基础而灵活的神经网络api,举个例子:l2 regularization公式: &img src=&https://www.zhihu.com/equation?tex=c+%3D+c_%7B0%7D+%2B+%5Cfrac%7B%5Clambda%7D%7B2n%7D%5Csum_%7Bw%7D%5E%7B%7D%7Bw%5E%7B2%7D%7D& alt=&c = c_{0} + \frac{\lambda}{2n}\sum_{w}^{}{w^{2}}& eeimg=&1&&;tf中的使用,89、90和97行&/li&&/ul&&figure&&img src=&https://pic4.zhimg.com/v2-0ede88f8618d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&758& data-rawheight=&246& class=&origin_image zh-lightbox-thumb& width=&758& data-original=&https://pic4.zhimg.com/v2-0ede88f8618d_r.jpg&&&/figure&&p&而Pytorch中的使用:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-647f9a39f829acd175f6f786d2ae78e2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1264& data-rawheight=&50& class=&origin_image zh-lightbox-thumb& width=&1264& data-original=&https://pic1.zhimg.com/v2-647f9a39f829acd175f6f786d2ae78e2_r.jpg&&&/figure&&p&仅仅一个参数&i&weight_decay&/i&搞定,非常方便,但是过于方便,不利于使用者深入理解&/p&&ul&&li&丰富的api:gan,seq2seq,crf等等流行的模型都有涵盖&/li&&li&人性化的模型训练监控&a href=&https://link.zhihu.com/?target=https%3A//www.tensorflow.org/api_docs/python/tf/train/Supervisor& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Supervisor&/a&&/li&&li&结果可视化 - Tensorboard&/li&&/ul&&figure&&img src=&https://pic4.zhimg.com/v2-7f00d2f814f296d5e2eb8b_b.jpg& data-size=&normal& data-rawwidth=&1418& data-rawheight=&939& class=&origin_image zh-lightbox-thumb& width=&1418& data-original=&https://pic4.zhimg.com/v2-7f00d2f814f296d5e2eb8b_r.jpg&&&figcaption&本期模型结构&/figcaption&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-40f9e0f8cb5a704cae045e27f8a33df5_b.jpg& data-size=&normal& data-rawwidth=&1560& data-rawheight=&552& class=&origin_image zh-lightbox-thumb& width=&1560& data-original=&https://pic3.zhimg.com/v2-40f9e0f8cb5a704cae045e27f8a33df5_r.jpg&&&figcaption&损失&/figcaption&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-cd2dbad0583aed6a2ada_b.jpg& data-size=&normal& data-rawwidth=&1561& data-rawheight=&566& class=&origin_image zh-lightbox-thumb& width=&1561& data-original=&https://pic3.zhimg.com/v2-cd2dbad0583aed6a2ada_r.jpg&&&figcaption&准确率&/figcaption&&/figure&&figure&&img src=&https://pic1.zhimg.com/v2-7b664a973aa56cae3cdbee8_b.jpg& data-size=&normal& data-rawwidth=&1214& data-rawheight=&956& class=&origin_image zh-lightbox-thumb& width=&1214& data-original=&https://pic1.zhimg.com/v2-7b664a973aa56cae3cdbee8_r.jpg&&&figcaption&词向量&/figcaption&&/figure&&hr&&p&本期代码是以TensorFlow为框架用lstm+cnn实现文本分类,数据依然是TREC,原理可以参考&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&深度学习-CNN文本分类&/a&和&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&深度学习-LSTM文本分类&/a&&/p&&p&模型初始化:&/p&&ul&&li&global_step - 模型全局的步骤&/li&&li&l2_loss - L2 regularization&/li&&li&uniform_init - 随机初始化&/li&&li&train_op - 参数优化,本期使用Adam&/li&&/ul&&figure&&img src=&https://pic1.zhimg.com/v2-efde6da2ffbe_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&733& data-rawheight=&338& class=&origin_image zh-lightbox-thumb& width=&733& data-original=&https://pic1.zhimg.com/v2-efde6da2ffbe_r.jpg&&&/figure&&p&placeholder初始化&/p&&ul&&li&input、label - 训练数据和标签&/li&&/ul&&figure&&img src=&https://pic2.zhimg.com/v2-632efe4206_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&796& data-rawheight=&175& class=&origin_image zh-lightbox-thumb& width=&796& data-original=&https://pic2.zhimg.com/v2-632efe4206_r.jpg&&&/figure&&p&计算视图初始化,lstm和cnn部分,整体代码&a href=&https://link.zhihu.com/?target=https%3A//github.com/ne7ermore/deeping-flow/blob/master/lstm-cnn-classfication/model.py%23L29& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&传送门&/a&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-ef1ed91ac29e9c6fbfc7_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&724& data-rawheight=&817& class=&origin_image zh-lightbox-thumb& width=&724& data-original=&https://pic1.zhimg.com/v2-ef1ed91ac29e9c6fbfc7_r.jpg&&&/figure&&p&训练&/p&&ul&&li&以sess(会话)为媒介控制训练,数据的流入和流出也是经过session&/li&&/ul&&figure&&img src=&https://pic3.zhimg.com/v2-7ef8de7e294ae1b114c1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&643& data-rawheight=&214& class=&origin_image zh-lightbox-thumb& width=&643& data-original=&https://pic3.zhimg.com/v2-7ef8de7e294ae1b114c1_r.jpg&&&/figure&&p&训练和测试&/p&&ul&&li&session定义 - 82行&/li&&li&summary_writer - 上文中Tensorboard的数据来源&/li&&/ul&&figure&&img src=&https://pic1.zhimg.com/v2-f365dbd94184f58daebe502e69e2f161_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&729& data-rawheight=&810& class=&origin_image zh-lightbox-thumb& width=&729& data-original=&https://pic1.zhimg.com/v2-f365dbd94184f58daebe502e69e2f161_r.jpg&&&/figure&&p&&/p&
文中提到的代码都可以在此找到:笔者在提到:”TensorFlow是目前最流行的深度学习框架,没有之一;背靠google这颗大树,Alpha狗光环加持,不得不是深度学习人员的首选。静态计算视图+数据流,灵活的底层API适合对深度神经网络有深刻认识的使用…
&figure&&img src=&https://pic2.zhimg.com/v2-3fd6c5ad2_b.jpg& data-rawwidth=&480& data-rawheight=&270& class=&origin_image zh-lightbox-thumb& width=&480& data-original=&https://pic3.zhimg.com/v2-3fd6c5ad2_r.jpg&&&/figure&&p&&b&CS231n 2017双语字幕版独家上线!Lecture 2 | Image Classification 更新了!&/b&&/p&&blockquote&2017春季CS231n中文版终于上线,课程中文版已经在AI慕课学院(mooc.ai )发布( free free free ),11月10日正式开课,每周五更新,预计持续12周!&/blockquote&&h2&什么是CS231n 2017?&/h2&&p&CS231n 的全称是 CS231n: &i&Convolutional Neural Networks for Visual Recognition&/i&,即面向视觉识别的卷积神经网络。&/p&&p&该课程是斯坦福大学计算机视觉实验室推出的课程。需要注意的是,我们这次翻译的是 2017 春季(4 月至 6 月)的最新版本。&/p&&p&引用课程主页上的官方课程描述如下:&/p&&blockquote&计算机视觉已经在我们的社会中无处不在,并广泛运用在搜索、图像理解、应用程序、测绘、医药、无人机和自动驾驶汽车等领域。这些应用程序的核心技术是视觉识别任务,如图像分类、图像定位和图像检测。近期,神经网络(又名 “深度学习”)方法上的进展极大地提高了这些代表最先进水平的视觉识别系统性能。&/blockquote&&p&本课程深入探讨深度学习架构的细节问题,重点学习视觉识别任务(尤其是图像分类任务)的端到端学习模型。在为期 10 周的课程中,学生将学习如何实现、训练和调试自己的神经网络,并建立起对计算机视觉领域前沿研究方向的详细理解。最后的任务将涉及训练一个有数百万参数卷积神经网络,并将其应用于最大的图像分类数据库(ImageNet)上。&/p&&p&我们将着重教授如何设置图像识别问题,学习算法(例如反向传播),用于训练和微调(fine-tuning)网络的工程实践技巧,引导学生完成实践作业和最终课程项目。本课程的大部分背景知识和素材都来源于 ImageNet Challenge 竞赛。&/p&&p&无法科学上网看到原视频的同学,现在可以在国内看到完整流畅的中文版视频。&/p&&p&&b&中文版课程链接:&/b&&a href=&https://link.zhihu.

我要回帖

 

随机推荐