lasso算法的求解过程 过程

我国古代有这样一道数学问题..急!!!!! 求解 要过程 详细点过程~~~~_百度作业帮
我国古代有这样一道数学问题..急!!!!! 求解 要过程 详细点过程~~~~
我国古代有这样一道数学问题..急!!!!! 求解 要过程 详细点过程~~~~
将树展开,即看成长边AC,藤条绕树缠绕7周,可得到AC=3×7(尺),短边BC树高为20尺的矩形,长藤的长度AB就是对角线的长度在Rt△ABC中,由勾股定理得,AB^2=BC^2+AC^2,∵BC=20,AC=3×7=21,∴AB^2=20^2+21^2=841,∴AB=29,∴这根藤条有29尺.答:这根藤条有29尺.希望能帮到你, 望采纳. 祝学习进步
根号下409尺7.4-(x-2.1)=6求解过程_百度作业帮
7.4-(x-2.1)=6求解过程
7.4-(x-2.1)=6求解过程
x一2.1=7.4-6x=1.4+2.1x=3.5
解 7.4-x+9.5=6 x=3.9
7.4-(X-2.1)=67.4-(X-2.1)+7.4=6+7.4X-2.1=13.4X-2.1+2.1=13.4+2.1X=15.5PCA的详细求解过程
PCA的目标:
特征的主方向,就是特征幅度变化最大的方向(“major axis of
variation”)。这一点理解很重要。从反面理解,幅度变化最小的方向就是没有变化,或者非常非常小的变化(可以忽略的变化),相对来说可利用价值最小,最可以忽略。而为了找到特征变化最大的方向,假设单位方向矢量为u,则特征点x在u方向的投影点x’距离原点的距离为d=x。所有的样本点都在一个方向投影后,他们就都在同一条直线上了。而要比较它们之间变化的程度,只要比较d的方差就行。方差最大的u对应的方向就是我们要寻找的主方向。因此,我们的目标函数就成为了:&&&
&&&&&&&&&&&&&&&&&&&&&&&&&
其中x的上标i表示数据集中的第i个样本,m表示数据集中的样本总数。(因为x已经中心化了,所以xu的均值也为0,因此xu的平方只和就是方差。)
括号中的一项十分熟悉,就是协方差矩阵Σ!终于知道协方差矩阵是怎么来的了。再看一看上面的式子,协方差矩阵与投影的方向无关,之于数据集中的样本有关,因此协方差矩阵完全决定了数据的分布及变化情况(请和自相关矩阵区别)。
& 目标函数如下:
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
& 用拉格朗日乘数法求解上面的最大化问题,很容易得到:
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
& 看见没?!u就是Σ的特征向量,λ就是特征值。我们再把(3)代入(2),目标函数就变成了
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&(4)
&&&&&&&&可见,可以通过协方差矩阵的迹衡量方差的大小。最大的特征值λ(以及对应的特征向量u)决定了数据变化最大的方向。u就是这个单位方向。因此PCA的求解过程就是对协方差矩阵进行特征值分解,并找到最大的几个特征值的过程。
PCA的求解方法:
首先介绍PCA的计算过程:
假设我们得到的2维数据如下:
行代表了样例,列代表特征,这里有10个样例,每个样例两个特征。可以这样认为,有10篇文档,x是10篇文档中“learn”出现的TF-IDF,y是10篇文档中“study”出现的TF-IDF。也可以认为有10辆汽车,x是千米/小时的速度,y是英里/小时的速度,等等。
&&&&&第一步分别求x和y的平均值,然后对于所有的样例,都减去对应的均值。这里x的均值是1.81,y的均值是1.91,那么一个样例减去均值后即为(0.69,0.49),得到
&&&&&第二步,求特征协方差矩阵,如果数据是3维,那么协方差矩阵是
这里只有x和y,求解得
对角线上分别是x和y的方差,非对角线上是协方差。协方差大于0表示x和y若有一个增,另一个也增;小于0表示一个增,一个减;协方差为0时,两者独立。协方差绝对值越大,两者对彼此的影响越大,反之越小。
&&&&&第三步,求协方差的特征值和特征向量,得到
上面是两个特征值,下面是对应的特征向量,特征值0.对应特征向量为,这里的特征向量都归一化为单位向量。
&&&&第四步,将特征值按照从大到小的顺序排序,选择其中最大的k个,然后将其对应的k个特征向量分别作为列向量组成特征向量矩阵。
这里特征值只有两个,我们选择其中最大的那个,这里是1.,对应的特征向量是。
&&&&&第五步,将样本点投影到选取的特征向量上。假设样例数为m,特征数为n,减去均值后的样本矩阵为DataAdjust(m*n),协方差矩阵是n*n,选取的k个特征向量组成的矩阵为EigenVectors(n*k)。那么投影后的数据FinalData为
FinalData(10*1) = DataAdjust(10*2矩阵)&特征向量
得到结果是
这样,就将原始样例的n维特征变成了k维,这k维就是原始特征在k维上的投影。
上面的数据可以认为是learn和study特征融合为一个新的特征叫做LS特征,该特征基本上代表了这两个特征。
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。e sure exactly how did you get 0.0392.
pretty sure it's 0.0785
1+ 0.5x = 1.08^(1/2)
0.5x = 1.08^(1/2) -1
x = 2*(1.08^(1/2)-1)
您的举报已经提交成功,我们将尽快处理,谢谢!
(1+x/2)^2=1.08
===& 1+(x/2)=√1.08≈1.0392【因为取正值】
===& x/2=1..0392
根据韦达定理
x1+x2=2(m-1)
又因为y=x1?+x2?=(x1+x2)?-2x1x2=4(m-1)?-2(m+1)=4m?-10m+...
大家还关注
(window.slotbydup=window.slotbydup || []).push({
id: '2081942',
container: s,
size: '1000,60',
display: 'inlay-fix'

我要回帖

更多关于 有限元求解过程 的文章

 

随机推荐