数学符号怎么打出来动手"做"出来 为什么没出版

郭家桥二手书店高等数学基础1(英文版)
开&&&&&&本:16开页&&&&&&数:390页字&&&&&&数:I&&S&&B&&N:9售&&&&&&价:14.00元
原书售价:32元品&&&&&&相:运&&&&&&费:四川成都
至快递:10.00元上书时间:购买数量:(库存1件)
微信购买商品分类: >
关 键 字:详细描述:暂无详细描述。
店主推荐10.00元10.00元10.00元您可能感兴趣的商品14.40元14.40元16.00元7.00元14.40元14.40元10.00元111.00元14.40元13.44元11.00元14.40元
特别提示:付款后24小时内发货,若在发货后申请更改发货信息的,本书店概不负责!配送方式一般是默认为百世快递!如遇问题,请联系店主协商,我们一定会为您满意解决。若因物流原因造成的晚到问题,请不要随意给中评或差评!要看图片看品相的请直接加店主QQ:,本店可提供发票80.00元30.00元40.00元20.00元70.00元40.00元50.00元50.00元40.00元200.00元
Copyright(C)
孔夫子旧书网
京ICP证041501号
海淀分局备案编号
成功加入购物车来自:恐龙书社您可以分享给朋友:&学而思杯”参赛辅导视频连载(初三数学9)下载至电脑扫码用手机看用或微信扫码在手机上继续观看二维码2小时内有效&学而思杯”参赛辅导视频连载(初三数学9)扫码用手机继续看用或微信扫码在手机上继续观看二维码2小时内有效,扫码后可分享给好友没有优酷APP?立即下载请根据您的设备选择下载版本
药品服务许可证(京)-经营- 请使用者仔细阅读优酷、、、Copyright(C)2017 优酷
版权所有不良信息举报电话:最近,金砖国家峰会在厦门盛开,朋友圈疯转厦门的美景吸引了不少吃瓜群众哦!厦门是旅游城市也是经济特区,趁着金砖会晤的热潮,小编收集了厦门必玩必吃的攻略,包含鼓浪屿、厦门大学景点等等,不容错过哦!
在此可输入您对该资料的评论~
(window.slotbydup = window.slotbydup || []).push({
id: '4540180',
container: s,
size: '250,200',
display: 'inlay-fix'
热门资料排行
添加成功至
资料评价:
所需积分:0徐裕烈,是杭州最有名的徐家私塾当家人,家有奥数娃的爸妈肯定听说过。
他退休前是小学数学老师,现在在杭州教育圈里名气也不小,尤其是他亲自出的数学题,经常被家长当做宝贝收藏。因为他出题大都紧扣时事热点,新颖有趣,连奥运会等体育赛事也能拿来当数学题。
这么牛的徐老师,也是鹿姐姐的老熟人。马上过新年了,徐老师送给鹿姐姐的祝福,就是一套数学连环题。
OMG,谁来帮帮鹿姐姐看看这祝福说的是啥……
徐老师的新年祝福,由6道数学连环题组成,主题是“丙申猴年”。小盆友们要按1~6的顺序解题,并将第1题的最后得数作为第2题的一个已知条件,去解第2题,依次类推。
在完成6道数学题之后,小盆友们还可以联系“发展”这个主题,对每道题作出一句话点评,数学题的答案是唯一的,点评因为角度不同,答案会有所不同。
徐老师说了,这次的祝福小学五年级以上学生可选做(有希望看懂),点评可以在家长帮助与讨论中进行。
已知:新年喜×喜年新=39483,那么:新+年+喜=( );
2016年是农历丙申年,9月4日~5日,G20二十国集团中国峰会将在杭州举行。左图中,三阶幻方的每行、每列及每条对角线之和都相等。如果:杭=(上题答数),州=20,年=10,那么:申=( )。
“花果山”开蟠桃大会,运来大、小两筐桃子,共有128个,已知两筐桃子个数的最大公约数是(上题答数),其中有筐桃子正好能够平均分给3个猴子家庭。那么:该筐里共有桃子( )个。
“花果山”上有一块正方形空地,面积大于100平方米,“老猴王”把它划分成三块活动区域。如图,其中A区和B区为两块正方形,B区的周长大于A区的边长,C区呈L形,其面积为(上题答数)平方米。那么:这块正方形的空地的总面积为
( )平方米。
甲、乙、丙三名动物园工作人员计划在M、N两个果园里种植桃树新品种,M果园种植棵数(上题答案),N果园种植129棵。已知甲、乙、丙每天分别能植树10、7、8棵。甲一直在M果园植树,丙一直在N果园植树,乙先在M果园和甲一起植树,然后转到N果园和丙一起植树。如果两个果园同时开始同时结束,那么:乙应在开始后第( )天从M果园转到N果园。
动物园举行大型群猴杂技表演,吸引了许多小朋友前来排队观看。如果每分钟来的小观众人数一样多,从开始检票到等候检票的队伍消失,若同时开(上题答案)个检票口则需20分钟;若同时开6个检票口则需10分钟。那么:如果要使队伍8分钟消失,需同时开( )个检票口。
看完题目,鹿姐姐已经晕了。2016再不学好数学,连新年祝福都看不懂。
想要答案戳“阅读原文”哦~
编辑/制作:沈蒙和 姚琼
返回搜狐,查看更多
责任编辑:1488人阅读
深度学习(42)
作者:jacky yang
链接:/question//answer/
来源:知乎
著作权归作者所有,转载请联系作者获得授权。
关于深度学习,网上的资料很多,不过貌似大部分都不太适合初学者。
这里有几个原因:
1.深度学习确实需要一定的数学基础。如果不用深入浅出地方法讲,有些读者就会有畏难的情绪,因而容易过早地放弃。
2.中国人或美国人写的书籍或文章,普遍比较难一些。我不太清楚为什么,不过确实是这样子的。
深度学习,确实需要一定的数学基础,但真的那么难么?这个,还真没有。不信?听我来给你侃侃。看完,你也会觉得没那么难了。
本文是针对初学者,高手可以无视,有不对的地方,还请多多批评指正。
这里,先推荐一篇非常不错的文章:
《1天搞懂深度学习》,300多页的ppt,台湾李宏毅教授写的,非常棒。
不夸张地说,是我看过最系统,也最通俗易懂的,关于深度学习的文章。
这是slideshare的链接:
没梯子的同学,可以从我的网盘下:
密码:3mty
要说先准备什么,私以为,其实只需要知道导数和相关的函数概念就可以了。高等数学也没学过?很好,我就是想让文科生也能看懂,您只需要学过初中数学就可以了。
其实不必有畏难的情绪,个人很推崇李书福的精神,在一次电视采访中,李书福说:谁说中国人不能造汽车?造汽车有啥难的,不就是四个轮子加两排沙发嘛。当然,他这个结论有失偏颇,不过精神可嘉。
导数是什么,无非就是变化率呗,王小二今年卖了100头猪,去年卖了90头,前年卖了80头。。。变化率或者增长率是什么?每年增长10头猪,多简单。这里需要注意有个时间变量---年。王小二卖猪的增长率是10头/年,也就是说,导数是10.
函数y=f(x)=10x+30,这里我们假设王小二第一年卖了30头,以后每年增长10头,x代表时间(年),y代表猪的头数。
当然,这是增长率固定的情形,现实生活中,很多时候,变化量也不是固定的,也就是说增长率也不是恒定的。比如,函数可能是这样: y=f(x)=5x?+30,这里x和y依然代表的是时间和头数,不过增长率变了,怎么算这个增长率,我们回头再讲。或者你干脆记住几个求导的公式也可以。
深度学习还有一个重要的数学概念:偏导数,偏导数的偏怎么理解?偏头疼的偏,还是我不让你导,你偏要导?都不是,我们还以王小二卖猪为例,刚才我们讲到,x变量是时间(年),可是卖出去的猪,不光跟时间有关啊,随着业务的增长,王小二不仅扩大了养猪场,还雇了很多员工一起养猪。所以方程式又变了:y=f(x)=5x??+8x? + 35x? +30
这里x?代表面积,x?代表员工数,当然x?还是时间。
上面我们讲了,导数其实就是变化率,那么偏导数是什么?偏导数无非就是多个变量的时候,针对某个变量的变化率呗。在上面的公式里,如果针对x?求偏导数,也就是说,员工对于猪的增长率贡献有多大,或者说,随着(每个)员工的增长,猪增加了多少,这里等于35---每增加一个员工,就多卖出去35头猪. 计算偏导数的时候,其他变量都可以看成常量,这点很重要,常量的变化率为0,所以导数为0,所以就剩对35x? 求导数,等于35. 对于x?求偏导,也是类似的。
求偏导我们用一个符号 表示:比如 y/ x? 就表示y对 x?求偏导。
废话半天,这些跟深度学习到底有啥关系?有关系,我们知道,深度学习是采用神经网络,用于解决线性不可分的问题。关于这一点,我们回头再讨论,大家也可以网上搜一下相关的文章。我这里主要讲讲数学与深度学习的关系。先给大家看几张图:
&img src=&/v2-cbe0cdfd0af76d328ebe_b.png& data-rawwidth=&631& data-rawheight=&488& class=&origin_image zh-lightbox-thumb& width=&631& data-original=&/v2-cbe0cdfd0af76d328ebe_r.png&&
图1. 所谓深度学习,就是具有很多个隐层的神经网络。 图1. 所谓深度学习,就是具有很多个隐层的神经网络。
&img src=&/v2-0d5accd6d800be9f933b_b.jpg& data-rawwidth=&432& data-rawheight=&576& class=&origin_image zh-lightbox-thumb& width=&432& data-original=&/v2-0d5accd6d800be9f933b_r.jpg&&
图2.单输出的时候,怎么求偏导数
&img src=&/v2-c52b1fcdd42c3ace40a8619_b.jpg& data-rawwidth=&432& data-rawheight=&576& class=&origin_image zh-lightbox-thumb& width=&432& data-original=&/v2-c52b1fcdd42c3ace40a8619_r.jpg&&图3.多输出的时候,怎么求偏导数。后面两张图是日语的,这是日本人写的关于深度学习的书。感觉写的不错,把图盗来用一下。所谓入力层,出力层,中间层,分别对应于中文的:输入层,输出层,和隐层。图3.多输出的时候,怎么求偏导数。后面两张图是日语的,这是日本人写的关于深度学习的书。感觉写的不错,把图盗来用一下。所谓入力层,出力层,中间层,分别对应于中文的:输入层,输出层,和隐层。
大家不要被这几张图吓着,其实很简单的。干脆再举一个例子,就以撩妹为例。男女恋爱我们大致可以分为三个阶段:
1.初恋期。相当于深度学习的输入层。别人吸引你,肯定是有很多因素,比如:身高,身材,脸蛋,学历,性格等等,这些都是输入层的参数,对每个人来说权重可能都不一样。
2.热恋期。我们就让它对应于隐层吧。这个期间,双方各种磨合,柴米油盐酱醋茶。
3.稳定期。对应于输出层,是否合适,就看磨合得咋样了。
大家都知道,磨合很重要,怎么磨合呢?就是不断学习训练和修正的过程嘛!比如女朋友喜欢草莓蛋糕,你买了蓝莓的,她的反馈是negative,你下次就别买了蓝莓,改草莓了。
深度学习也是一个不断磨合的过程,刚开始定义一个标准参数(这些是经验值。就好比情人节和生日必须送花一样),然后不断地修正,得出图1每个节点间的权重。为什么要这样磨合?试想一下,我们假设深度学习是一个小孩,我们怎么教他看图识字?肯定得先把图片给他看,并且告诉他正确的答案,需要很多图片,不断地教他,训练他,这个训练的过程,其实就类似于求解神经网络权重的过程。以后测试的时候,你只要给他图片,他就知道图里面有什么了。
所以训练集,其实就是给小孩看的,带有正确答案的图片,对于深度学习而言,训练集就是用来求解神经网络的权重的,最后形成模型;而测试集,就是用来验证模型的准确度的。
对于已经训练好的模型,如下图所示,权重(w1,w2...)都已知。
&img src=&/v2-9e08dbbab5aa63b6527bd4_b.png& data-rawwidth=&940& data-rawheight=&736& class=&origin_image zh-lightbox-thumb& width=&940& data-original=&/v2-9e08dbbab5aa63b6527bd4_r.png&&
&img src=&/v2-ef5ad0d06a316f762ff43_b.png& data-rawwidth=&776& data-rawheight=&174& class=&origin_image zh-lightbox-thumb& width=&776& data-original=&/v2-ef5ad0d06a316f762ff43_r.png&&
我们知道,像上面这样,从左至右容易算出来。但反过来呢,我们上面讲到,测试集有图片,也有预期的正确答案,要反过来求w1,w2......,怎么办?
绕了半天,终于该求偏导出场了。目前的情况是:
1.我们假定一个神经网络已经定义好,比如有多少层,每层有多少个节点,也有默认的权重和激活函数(后面讲)等。这个没办法,刚开始得有一个初始值。你喜欢一个美女,她也不是刚从娘胎里出来的,也是带有各种默认参数的。至于怎么调教,那就得求偏导。
2.我们已知正确答案,比如图2和3里的r,训练的时候,是从左至右计算,得出的结果为y,r与y一般来说是不一样的。那么他们之间的差距,就是图2和3里的E。这个差距怎么算?当然,直接相减是一个办法,尤其是对于只有一个输出的情况,比如图2; 但很多时候,其实像图3里的那样,那么这个差距,一般可以这样算,当然,还可以有其他的评估办法,只是函数不同而已,作用是类似的:
&img src=&/v2-e5ddd26d65aa04ed82f2a51fc8212427_b.png& data-rawwidth=&484& data-rawheight=&102& class=&origin_image zh-lightbox-thumb& width=&484& data-original=&/v2-e5ddd26d65aa04ed82f2a51fc8212427_r.png&&不得不说,理想跟现实还是有差距的,我们当然是希望差距越小越好,怎么才能让差距越来越小呢?得调整参数呗,因为输入(图像)确定的情况下,只有调整参数才能改变输出的值。怎么调整,怎么磨合?刚才我们讲到,每个参数都有一个默认值,我们就对每个参数加上一定的数值?,然后看看结果如何?如果参数调大,差距也变大,你懂的,那就得减小?,因为我们的目标是要让差距变小;反之亦然。所以为了把参数调整到最佳,我们需要了解误差对每个参数的变化率,这不就是求误差对于该参数的偏导数嘛。不得不说,理想跟现实还是有差距的,我们当然是希望差距越小越好,怎么才能让差距越来越小呢?得调整参数呗,因为输入(图像)确定的情况下,只有调整参数才能改变输出的值。怎么调整,怎么磨合?刚才我们讲到,每个参数都有一个默认值,我们就对每个参数加上一定的数值?,然后看看结果如何?如果参数调大,差距也变大,你懂的,那就得减小?,因为我们的目标是要让差距变小;反之亦然。所以为了把参数调整到最佳,我们需要了解误差对每个参数的变化率,这不就是求误差对于该参数的偏导数嘛。
关键是怎么求偏导。图2和图3分别给了推导的方法,其实很简单,从右至左挨个求偏导就可以。相邻层的求偏导其实很简单,因为是线性的,所以偏导数其实就是参数本身嘛,就跟求解x?的偏导类似。然后把各个偏导相乘就可以了。
这里有两个点:
一个是激活函数,其实激活函数也没啥,就是为了让每个节点的输出都在0到1的区间,这样好算账嘛,所以在结果上面再做了一层映射,反正都是一对一的。由于激活函数的存在,所以在求偏导的时候,也要把它算进去,激活函数,一般用sigmoid,也可以用Relu等。激活函数的求导其实也非常简单:
&img src=&/v2-aaedc22cee9ed_b.jpg& data-rawwidth=&257& data-rawheight=&159& class=&content_image& width=&257&&求导: f'(x)=f(x)*[1-f(x)]求导:
f'(x)=f(x)*[1-f(x)]
这个方面,有时间可以翻看一下高数,没时间,直接记住就行了。
至于Relu,那就更简单了,就是f(x) 当x&0的时候y等于0,其他时候,y等于x。
当然,你也可以定义你自己的Relu函数,比如x大于等于0的时候,y等于0.01x,也可以。
另一个是学习系数,为什么叫学习系数?刚才我们上面讲到?增量,到底每次增加多少合适?是不是等同于偏导数(变化率)?经验告诉我们,需要乘以一个百分比,这个就是学习系数,而且,随着训练的深入,这个系数是可以变的。
当然,还有一些很重要的基本知识,比如SGD(随机梯度下降),mini batch 和 epoch(用于训练集的选择),限于篇幅,以后再侃吧。其实参考李宏毅的那篇文章就可以了。
这篇拙文,算是对我另一个回答的补充吧:
其实上面描述的,主要是关于怎么调整参数,属于初级阶段。上面其实也提到,在调参之前,都有默认的网络模型和参数,如何定义最初始的模型和参数?就需要进一步深入了解。
不过对于一般做工程而言,只需要在默认的网络上调参就可以了,相当于用算法;
对于学者和科学家而言,他们会发明算法,难度还是不小的。向他们致敬!
写得很辛苦,觉得好就给我点个赞吧:)
&&相关文章推荐
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:390948次
积分:5444
积分:5444
排名:第5184名
原创:85篇
转载:302篇
译文:10篇
评论:171条
研二在读,关注:深度学习,计算机视觉,机器学习,图像处理。博文主要是自己的一些总结。转载文章供资料学习(转载一些最新文章),如有侵权望告知。注:有些评论没有回复,最近比较忙不好意思。
(8)(35)(7)(14)(43)(57)(22)(16)(46)(24)(43)(42)(40)
(window.slotbydup = window.slotbydup || []).push({
id: '4740887',
container: s,
size: '250,250',
display: 'inlay-fix'

我要回帖

更多关于 数学公式怎么打出来 的文章

 

随机推荐