离散卷积公式式里的那两个参数代表的是什么

离散卷积_百度百科
清除历史记录关闭
声明:百科词条人人可编辑,词条创建和修改均免费,绝不存在官方及代理商付费代编,请勿上当受骗。
本词条缺少名片图,补充相关内容使词条更完整,还能快速升级,赶紧来吧!
离散卷积是两个离散序列和之间按照一定的规则将它们的有关序列值分别两两相乘再相加的一种特殊的运算。
离散卷积公式
“离散卷积”是两个离散序列
之间按照一定的规则将它们的有关序列值分别两两相乘再相加的一
种特殊的运算。具体可用公式表示为
就是经过运算以后所得到的一个新的序列。根据上式,在运算过程中,要使序列
“不动”,并将改为
,以表示与结果的自变量
有所区别。而将另外一个序列
的改为i以后,再取它对于纵坐标的“镜像”(式中的“-”号即是此意)。为求两者的
的每一个值两两相乘再相加,就得到了
。接下来,将
向右移动的一个间隔,构成
,同样在相同的
的各个值两两相乘再相加,就得到值
,……,如此反复,直到所有的序列值都算完为止。其中要注意,对于
向右移,而对于
的值,要把
离散卷积示例
h(n)=1, 0≤n≤2
的,按以上方法就得到卷积y(n)的各个值
y(0)=1,y(1)=2,y(2)=3,y(3)=3,y(4)=3,y(5)=3,y(6)=2,y(7)=1,
y(n)=0, 其余
在此情况下,x(n)及h(n)分别有6个和3个点(的个数),则卷积值y(n)有6+3-1=8个点。一般情况下,当x(n)及h(n)的“长度”(离散值的个数)分别为N1及N2时,y(n)的长度则为N1+N2-1.
在工程上离散卷积有着广泛的应用。例如为了将数字信号进行滤波,可以将表示成离散序列的该信号x(n)与的h(n)进行卷积。
奥本海默.信号与系统.西安:西安交通大学出版社,2010年
清除历史记录关闭没有更多推荐了,
不良信息举报
举报内容:
矩阵卷积理解
举报原因:
原文地址:
原因补充:
最多只允许输入30个字
加入CSDN,享受更精准的内容推荐,与500万程序员共同成长!在 Caffe 中如何计算卷积? - 知乎<strong class="NumberBoard-itemValue" title="被浏览<strong class="NumberBoard-itemValue" title="7分享邀请回答50351 条评论分享收藏感谢收起hal.archives-ouvertes.fr/file/index/docid/112631/filename/p6.pdf9816 条评论分享收藏感谢收起卷积公式的介绍
已有 2516 次阅读
|个人分类:|系统分类:|关键词:麻省理工,公开课|
麻省理工的公开课。不同于一般常微分方程课程千篇一律地从分离变量和一阶线性方程讲起,MIT《微分方程》第一讲就以独特的视角从全局的角度诠释了微分方程的内涵。课程从方向场和积分曲线入手,深入透彻地剖析了微分方程的实质。一上来,撇开那些有解的特殊的微分方程不谈,却从几何方向通俗易懂,而又全面深入地告诉我们什么是微分方程,解微分方程其实是什么。[第2课]老头爽约了,他没有按之前说的,讲线性方程的解法,而是开始讲数值方法。按他自己的话说:“线性方程还是推迟到下一讲吧,多数微分方程都是通过数值方法解出来的,先讲这个更好”。他还说:“现在已经是二十一世纪了,计算机都能帮你搞定”。听了他的课才领略,数学不只是那几个臭公式,更重要的是应用。听了他的课,让人深刻地意识到,计算机和数学之间的联系如此紧密。[第3课]这一讲的主要内容是一阶线性ODE:y&#39;+p(x)y=q(x),及其解法积分因子法。这一讲通过两个实际问题——“热传导问题”和“溶液浓度扩散问题”,引出了ODE中“最重要”的一节线性微分方程,并透彻讲解。[第4课]这一讲介绍换元法(或译作代换法,substitution method),并以此为思想将某些特定形式的一阶方程转化为可分离变量方程或线性方程。本讲用换元法解决了两类特定的一阶方程,即伯努利方程和齐次方程。伯努利方程y&#39;=p(x)y+q(x)y&#8319;,通过换元化为可分离变量方程。齐次方程y&#39;=F(y/x),令z=y/x可化为线性方程。[第5课]这一讲的主题是一阶自治方程y&#39;=f(y)。这一讲不涉及到此类方程的解法,转而考虑在不求解方程的前提下,进行定性分析,直观地获得方程的相关信息,从而避免了由于积分复杂造成不必要的无用功。这一讲还详细讲解了自治方程的一些实用模型:银行存款模型、人口增长模型。[第6课]复数在ODE中应用相当广泛。这一讲从复数的运算着手,落脚于复数的极坐标形式。围绕欧拉公式e^iθ=cosθ+isinθ展开,从各个方面详细介绍了这种美妙形式的由来。这一讲还利用复指数巧妙地解决了∫e^x(sinx)dx这种指数、三角函数混合型积分,方法效率远大于常规的分部积分法。[第7课]这一讲特别介绍了一阶常系数线性方程y&#39;+ky=q(t),并解释了k&0时稳态和暂态的内涵。特别地,这一讲强调了y&#39;+ky=kq(t)形式的方程及在相应模型中的应用,并引入输入-响应的概念。最后以正弦波输入作为例子,讲解了分析和求解此类方程的复方法。[第8课]这一讲继续强调一阶常系数线性方程和复数思想。特别强调了正弦输入的情况,并巧妙地通过向量法和复数法给出了三角恒等式acosθ+bsinθ=Ccos(θ-φ)的证明。这一讲的最后,用温度、混合、RC电路、衰变和增长等多个模型为一阶常系数线性方程画上了完美的句号。[第9课]这一讲的主题是二阶常系数齐次线性ODE:y&#39;&#39;+Ay&#39;+By=0。这种方程在实际中对应弹簧-质量-阻尼系统,其一般性解法是代入e^(rt),然后通过特征方程r&sup2;+Ar+B=0求出r。根据特征方程根的性质,分为两个不同实根、二重实根和复根三种情况,分别对应过阻尼、临界阻尼和欠阻尼三种情况。[第10课]这一讲首先深入讲解了二阶常系数齐次线性常微分方程y&#39;&#39;+Ay&#39;+By=0的解如何在实解和复解之间进行转换。然后将方程化为具有物理意义的形式的振动方程y&#39;&#39;+2py&#39;+ω&sup2;y=0,分别讨论了无阻尼情形(p=0)时解的性质和意义,以及阻尼情况下解的性质和振动的情况。[第11课]这一讲的讨论对象是二阶齐次线性方程y&#39;&#39;+p(x)y&#39;+q(x)y=0,讨论了其通解的性质,为何用两个线性独立的解就能表示所有解,而且所有解都在通解的集合内。并解释了叠加原理、唯一性定理、朗斯基行列式等概念。[第12课]这一讲的重点是二阶非齐次线性方程y&#39;&#39;+p(x)y&#39;+q(x)y=f(x)。首先是将f(x)看成输入或驱动,用弹簧和电路两个例子强调方程的重要性。然后用线性算子,描述了解的一般形式和结构。这一讲的另一个重点是暂态和稳态,在什么条件下对二阶线性方程成立,教授用一句精辟的结论总结了这个问题。[第13课]本讲用算子方法求解高阶非齐次线性方程p(D)y=e^(αx),α为复数,p(D)为D的多项式。考虑p(α)≠0时,特解为e^(αx)/p(α)[用到了代换法则];p(α)=0时,需要分情况讨论,其中单根时,特解xe^(αx)/p&#39;(α)[用到指数位移法则]。[第14课]这一讲是关于共振的。为什么输入频率等于固有频率时,振幅会达到最大?教授从微分方程和数学的角度解释了这个问题。之后教授讲解了带阻尼情况下的&共振&,考虑了输入频率和阻尼伪频率之间什么关系时,才能实现这种&共振&。[第15课]傅里叶级数在数论、组合数学、信号处理、概率论、统计学、密码学、声学、光学等领域都有着广泛的应用。这一讲首先介绍以2π为周期的函数f(t)可以写作c0+∑(ancosnt+bnsinnt)的傅里叶无穷级数形式。教授通过三角函数正交关系的证明,给出了an和bn的表达式。[第16课]这一讲是上一讲的续集,首先考虑了奇函数和偶函数两种情况,讲解了傅里叶级数在这些情况下如何简化运算(以及如果将积分简化到半个周期内)。然后将2π周期延伸到了任意周期2L的情况。最后课程介绍了非周期函数的延伸,任意有限区间都可以用到傅里叶级数。特别地,教授还讲到了傅里叶级数和泰勒级数着眼点的异同。[第17课]这一讲主题是利用傅里叶级数求x&#39;&#39;+ω0&sup2;x=f(t)的特解,其中f(t)化为傅里叶级数,通过sin和cos的可解性来求特解。这一讲采用了方波的例子,告诉我们方程的输入响应系统是如何自然选出与固有频率最接近的共振项的,并以此简单介绍了人耳识别乐音的机理。[第19课]记得幂级数吧,如1/(1-x)=Σ(x^n)、e^x=∑(x^n/n!),考虑某种变换,让两个幂级数的系数1和1/n!分别对应于f(x)=1/(1-x)或f(x)=e^x,这很容易。其实拉普拉斯变换与这是对应的。教授用这种深入浅出的讲解,让我们了解了拉普拉斯变换的由来。然后分别计算了1、e^at、cos(at)等几种常见函数的变换,并讲解了指数位移的重要公式。大名鼎鼎的拉普拉斯变换,其实并不难。[第20课]这一讲的主要目标是用拉氏变换求解线性ODE,特别的,解y&#39;&#39;+py&#39;+qy=f(t)形式方程。为此,教授首先引入导数的拉氏变换公式,即已知y(t)经过拉氏变换得到Y(t),那么y&#39;及y&#39;&#39;如何用Y(t)来表示。拉氏变换解法也就是方程两边同时进行拉氏变换,然后求解得到的代数方程,之后运用部分分式,最后用拉氏逆变换求出解y(t)。播放中[第21课]卷积公式这一讲引入了卷积公式f(t)*g(t)=∫f(u)g(t-u)du。教授从两个方面介绍了卷积的由来和用途:理论方面,卷积和拉氏变换密切相关,L(f)L(g)=L(f*g),卷积由拉氏变换乘积关系的自然产生;实践方面,卷积最普遍的例子是用作放射物质倾泻的积累量问题。教授另外还举了三个实际例子。这一讲全面剖析了卷积公式,并做到了真正的深入浅出。[第22课]这一讲主要是讲跳跃式不连续函数u(t)=1(t&0); 0(t&0)的情况,重新定义拉普拉斯逆变换的唯一性,即L(u(t))=1/s。之后教授讲到了函数平移之后的拉普拉斯变换如何进行,之后推广到更一般的不连续输入问题。最后教授以几个实用的例题作结。[第24课]这是一阶方程组的第一讲,首先引入了形如x&#39;=f(x,y,t);y&#39;=g(x,y,t)的一阶方程组。教授讲了一些实际用到一阶方程组的例子,然后利用煮鸡蛋的例子,演示了如何用比较直观的消元法来求解。最后教授给出了速度场的几何解释。[第26课]这一讲继续以矩阵形式x&#39;=Ax讨论常系数齐次线性方程组。课堂上引入了重复实特征值和复特征值两种特殊情况,即特征方程解出重根或复根的情况,两种情况教授分别举出一个实际例子进行讨论。一个是鱼缸温度传递的例子,一个是苏飞传中的爱情例子,引起满堂哄笑。[第27课]这一讲教授讲到了2x2常系数齐次线性方程组各种情况的图像,以此希望给学生一个比较直观的感受,此类方程组解是什么样子。为此,教授引入了两州旅游竞争模型,分别就特征方程中存在两负实根、一正一负实根、以及复根的三种情况给出了方程组解的草图。[第28课]这一讲过渡到非齐次方程组,还是以2x2常系数方程组为例,以矩阵形式x&#39;=Ax+r进行讲解。首先,教授介绍了两个相关定理,为求解做了铺垫。然后介绍了x&#39;=Ax的基本矩阵X。最后通过参数变分的方法,给出了非齐次方程组的特解xp=X∫X^(-1)rdt。[第29课]这一讲给出了齐次微分方程组x&#39;=Ax的解的一般公式,即用矩阵指数e^(At)表示基本矩阵X。同单个微分方程x&#39;=ax中,a可以看作是1x1矩阵,其解是e^at。这里就是方程组在nxn矩阵上的推广,以此引入矩阵指数及其在解方程组中的应用。[第30课]这一讲给出了齐次线性微分方程组x&#39;=Ax的解耦解法,这是第三种方法。由于在自科和工程领域,方程组通常具有物理意义,解耦解法能偶提供对解更为本质的认识,因此教授将其作为这一讲的主题。首先是一个实际例子,然后是一般方程组的解法。[第31课]这一讲介绍非线性的情况,主要是通过轻微阻尼的非线性摆的例子,介绍了该情况下如何求临界点,并作轨迹草图。简谐振动中,摆使用的是小角近似为线性情况,这一讲是一个推广,摆使用的不一定是小角,不过仍然通过线性化得到解释。[第32课]这一讲的主题是极限环,首先教授给出了极限环的定义,它首先是方程组的解形成的一条闭合轨迹,另外它不同于一般闭合轨迹,它必须是附近轨迹在t趋于无穷时逼近的轨迹。然后教授介绍了极限环何时不存在的两个准则,分别是本迪克松准则和临界点准则,证明本迪克松准则时,证明过程中涉及了反证法,以及逆否命题逻辑。最后教授介绍了极限环的一些历史,并用他经历的一个有趣故事结束了本课,与某位中国教授有关。
转载本文请联系原作者获取授权,同时请注明本文来自籍利平科学网博客。链接地址:
上一篇:下一篇:
当前推荐数:0
推荐到博客首页
评论 ( 个评论)
扫一扫,分享此博文
作者的精选博文
作者的其他最新博文
热门博文导读
Powered by
Copyright &如何计算卷积层中对应参数个数?一、背景这段时间在用Keras搭建卷积神经网络中,发现Keras可以自行计算出每层中对应参数的数量,对此计算过程我比较好奇:二、问题以及解决方案2.1 问题环境描述有一张224*224大小的图片,第一层就为卷基层,代码如下:from keras.layers import Conv2D, MaxPooling2D, GlobalAveragePooling2D
from keras.layers import Dropout, Flatten, Dense
from keras.models import Sequential
model = Sequential()
model.add(Conv2D(16,(2,2),input_shape=(224,224,3)))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Dense(133))
model.summary()
最终统计结果如下:这里先抛出卷积层中卷积核操作动态图:2.2 第一层(卷积层)的参数个数计算先整理以下此环境中对应的数据信息信息列表Filter个数:32原始图像shape:224*224*3卷积核大小为:2*2 一个卷积核的参数:2*2*3=12 16个卷积核的参数总额:16*12 + 16 =192 + 16 = 208weight * x + bias根据这个公式,即可算的最终的参数总额为:2082.3 第二层(池化层)的参数个数计算很明显,没有嘛。不清楚的,去看看池化层到底是!
2.4 第三层(全连接层)的参数个数计算第二层池化层的输出为:(111*111*16),从第一层到第二层,只是图片大小发生了变化,深度没有发生变化,而Dense对应的神经元个数为133个,那么还是根据公式:weight * x + bias,计算得:133*16+133=2261三、总结在卷积层中,每个卷积核都能够学习到一个特征,那么这个特征其实就是卷积核对应学习到的参数:矩阵中每个单元weight,以及整个卷积核对应的一个bias解决这个问题最根本还是需要理解最本质的一个公式:weight * x + bias0添加评论分享收藏文章被以下专栏收录努力为计算机开启一扇窗

我要回帖

更多关于 卷积公式推导 的文章

 

随机推荐