请问这道线性代数特征值和特征向量与特征向量的值应该怎么做

线性代数中可逆矩阵A和B=(E+A*)具囿相同的特征向量,有没有更一般的规律啊还有特征值变化的时候什么时候一样,比如说A和A+E的特征值就一样相差一个1
特征值与特征姠量可以通过定义来解决。
定义:若Aα=λα,α ≠0则称λ是A的特征值,α是属于λ的特征向量。
一般求解矩阵多项式f(A)的特征值特征向量,是通过上述定义来求解的
kA+mE的特征值与特征值向量
设λ是A的特征值,α是属于λ的特征向量Aα=λαα ≠0
根据定义,kA+mE的特征值是(kλ+m)特征向量是α
上述求解过程一般解法。
希望对你有所帮助望采纳。

下面有标注看不懂再问

免责声奣:本页面内容均来源于用户站内编辑发布,部分信息来源互联网并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等問题请立即联系客服进行更改或删除,保证您的合法权益

特征值与特征向量的几何意义

矩阵的乘法是什么别只告诉我只是“前一个矩阵的行乘以后一个矩阵的列”,还会一点的可能还会说“前一個矩阵的列数等于后一个矩阵的行数才能相乘”然而,这里却会和你说——那都是表象

矩阵乘法真正的含义是变换,我们学《线性代數》一开始就学行变换列变换那才是线代的核心——别会了点猫腻就忘了本——对,矩阵乘法 就是线性变换若以其中一个向量A为中心,则B的作用主要是使A发生如下变化:

  1. 从上图可知y方向进行了2倍的拉伸,x方向进行了3倍的拉伸这就是B=[3 0; 0 2]的功劳,3和2就是伸缩比例。请注意這时B除了对角线元素为各个维度的倍数外,非正对角线元素都为0因为下面将要看到,对角线元素非0则将会发生切变及旋转的效果

  2. 所有嘚变换其实都可以通过上面的伸缩和切变变换的到,如果合理地对变换矩阵B取值能得到图形旋转的效果,如下

好,关于矩阵乘就这些叻那么,我们接着就进入主题了对特定的向量,经过一种方阵变换经过该变换后,向量的方向不变(或只是反向)而只是进行伸縮变化(伸缩值可以是负值,相当于向量的方向反向)这个时候我们不妨将书上对特征向量的定义对照一遍:

数学教材定义: 设A是n阶方陣,如果存在 λ 和n维非零向量X使  ,则 λ 称为方阵A的一个特征值X为方阵A对应于或属于特征值 λ 的一个特征向量。

上面特定的向量不就是特征向量吗 λ 不就是那个伸缩的倍数吗?因此特征向量的代数上含义是:将矩阵乘法转换为数乘操作;特征向量的几何含义是:特征姠量通过方阵A变换只进行伸缩,而保持特征向量的方向不变特征值表示的是这个特征到底有多重要,类似于权重而特征向量在几何上僦是一个点,从原点到该点的方向表示向量的方向

特征向量有一个重要的性质:同一特征值的任意多个特征向量的线性组合仍然是A属于哃一特征值的特征向量。关于特征值网上有一段关于“特征值是震动的谱”的解释:

戏说在朝代宋的时候,我国就与发现矩阵特征值理論的机会擦肩而过话说没有出息的秦少游在往池塘里扔了一颗小石头后,刚得到一句“投石冲开水底天”的泡妞诗对之后就猴急猴急哋去洞房了,全然没有想到水波中隐含着矩阵的特征值及特征向量的科学大道理大概地说,水面附近的任一点水珠在原处上下振动(实際上在做近似圆周运动)并没有随着波浪向外圈移动,同时这些上下振动的水珠的幅度在渐渐变小直至趋于平静。在由某块有着特定質量和形状的石头被以某种角度和速度投入某个面积和深度特定的水池中所决定的某个矩阵中纹波荡漾中水珠的渐变过程中其特征值起著决定性的作用,它决定着水珠振动的频率和幅度减弱的衰退率

在理解关于振动的特征值和特征向量的过程中,需要加入复向量和复矩陣的概念因为在实际应用中,实向量和实矩阵是干不了多少事的机械振动和电振动有频谱,振动的某个频率具有某个幅度;那么矩阵吔有矩阵的谱矩阵的谱就是矩阵特征值的概念,是矩阵所固有的特性所有的特征值形成了矩阵的一个频谱,每个特征值是矩阵的一个“谐振频点”

美国数学家斯特让(G..Strang)在其经典教材《线性代数及其应用》中这样介绍了特征值作为频率的物理意义,他说:

大概最简单嘚例子(我从不相信其真实性虽然据说1831年有一桥梁毁于此因)是一对士兵通过桥梁的例子。传统上他们要停止齐步前进而要散步通过。这个理由是因为他们可能以等于桥的特征值之一的频率齐步行进从而将发生共振。就像孩子的秋千那样你一旦注意到一个秋千的频率,和此频率相配你就使频率荡得更高。一个工程师总是试图使他的桥梁或他的火箭的自然频率远离风的频率或液体燃料的频率;而在叧一种极端情况一个证券经纪人则尽毕生精力于努力到达市场的自然频率线。特征值是几乎任何一个动力系统的最重要的特征

其实,這个矩阵之所以能形成“频率的谱”就是因为矩阵在特征向量所指的方向上具有对向量产生恒定的变换作用:增强(或减弱)特征向量嘚作用。进一步的如果矩阵持续地叠代作用于向量,那么特征向量的就会凸现出来

设A有n个特征值及特征向量,则:

将上面嘚写到一起成矩阵形式:

若(x1,x2,...,xn)可逆则左右两边都求逆,则方阵A可直接通过特征值和特征向量进行唯一的表示令

则  ,该表达式称为方阵的特征值分解这样方阵A就被特征值和特征向量唯一表示。

一个变换方阵的所有特征向量组成了这个变换矩阵的一组基所谓基,可以理解為坐标系的轴我们平常用到的大多是直角坐标系,在线性代数中可以把这个坐标系扭曲、拉伸、旋转称为基变换。我们可以按需求去設定基但是基的轴之间必须是线性无关的,也就是保证坐标系的不同轴不要指向同一个方向或可以被别的轴组合而成否则的话原来的涳间就“撑”不起来了。从线性空间的角度看在一个定义了内积的线性空间里,对一个N阶对称方阵进行特征分解就是产生了该空间的N個标准正交基,然后把矩阵投影到这N个基上N个特征向量就是N个标准正交基,而特征值的模则代表矩阵在每个基上的投影长度特征值越夶,说明矩阵在对应的特征向量上的方差越大功率越大,信息量越多不过,特征值分解也有很多的局限比如说变换的矩阵必须是方陣。

在机器学习特征提取中意思就是最大特征值对应的特征向量方向上包含最多的信息量,如果某几个特征值很小说明这几个方向信息量很小,可以用来降维也就是删除小特征值对应方向的数据,只保留大特征值方向对应的数据这样做以后数据量减小,但有用信息量变化不大PCA降维就是基于这种思路。

Matlab中通过eig函数就可求得特征值和特征向量矩阵

D对角线的元素即为特征值(表示了伸缩的比例),D就昰特征值分解公式中的QV的每一列与D没列对应,表示对应的特征向量即特征值分解中的Σ。

特征值分解是一个提取矩阵特征佷不错的方法,但是它只适用于方阵而在现实的世界中,我们看到的大部分矩阵都不是方阵比如说有M个学生,每个学生有N科成绩这樣形成的一个M * N的矩阵就可能不是方阵,我们怎样才能像描述特征值一样描述这样一般矩阵呢的重要特征呢奇异值分解就是用来干这个事嘚,奇异值分解是一个能适用于任意的矩阵的一种分解的方法我们有必要先说说特征值和奇异值之间的关系。

对于特征值分解公式 ATA 是方阵,我们求 ATA 的特征值即  ,此时求得的特征值就对应奇异值的平方求得的特征向量v称为右奇异向量,另外还可以得到:

所求的ui就是左渏异向量 σi 就是奇异值。已有人对SVD的几何机理做了清晰的分析非常受用,就不重复造轮子下文为转载自 。

我要回帖

更多关于 线性代数特征值和特征向量 的文章

 

随机推荐