线代中特征值跟特征向量的引入的目的是什么

2020-11-22 06:08:22 字数 5923 阅读 6862

1楼:匿名用户

数学工具

对于某些计算像种群密度变化人口迁移

基因频率很有用

并且对于线代后面很多内容是基础

(目前只了解这些)

线性代数中的特征值特征向量与现实有什么联系,实际生活中用在**?

2楼:

如果你把a*x=lambda*x中的a看做一种变换,一种作用,那么那些

在这种作用下,只改变长短不改变方向的那些向量x就是特征向量,而特征值就是lambda,是伸缩系数,起能量增幅或者削减作用。

特征值特征向量在各学术领域均有很高级的作用,首先介绍pca,主成分分析。如果你面前有大维数组,处理起来非常棘手,直接带入问题处理速度又慢,第一想法就是能不能从中取出最有用,最有代表性的内容,俗话说:捞干的。

回想tr迹这个性质,tra=a所有特征向量的和,主对角线元的意义非凡,暂且认为主对角线和就是这个矩阵所蕴含的能量。而特征向量就是这些能量集中爆发的方向,如果你很清楚特征分解的几何意义,就知道特征向量就是数据在空间中的对称轴,特征分解就是把其他方面的能量都投影在对称轴上,所以特征分解完或者说投影完,中间就只剩一个对角阵了,非对角元全是0. 此时你把最大的那几个特征向量摘出来,其余的抛掉,如此能很大程度降低你数据的维度,但信息损失仍在可控的范围。

假设你求出100个特征值,头五个最大的和能达到这100个和的95%,那么其余95个丢掉,相对应的特征向量也丢掉。此时你的100*100的方阵只剩下5*5了,但信息量保存了95%。 金融业,银行业,保险业大量使用。

互联网,google的pagerank,就是 对www链接关系的修正邻接矩阵的,主要特征向量的投影分量,给出了页面平分。也就是搜索排名,凭什么我靠前你靠后。

人像识别,我们把图像a看成矩阵,进一步看成线性变换矩阵,把这个训练图像的特征矩阵求出来(假设取了n个能量最大的特征向量)。用a乘以这个n个特征向量,得到一个n维矢量a,也就是a在特征空间的投影。

还有聚类分析,信号处理等等。所以这块你一定要学透。

3楼:仙访戚可昕

|λλ||λe-a|

=|λ-1

-1-3||0

λ-30|

|-2-2

λ||λe-a|

=(λ-3)*

|λ-1

-3||-2

λ||λe-a|

=(λ-3)(λ^2-λ-6)

=(λ+2)(λ-3)^2

特征值λ

=-2,3,3

对于λ=-2,

λe-a

=[-3

-1-3][0

-50]

[-2-2

-2]行初等变换为[1

11][0

10][0

20]行初等变换为[1

01][0

10][0

00]得特征向量(10

-1)^t

对于重特征值λ=

3,λe-a=[

2-1-3][00

0][-2

-23]

行初等变换为[2

-1-3][0

-30][0

00]行初等变换为[2

0-3][0

10][0

00]得特征向量(30

2)^t.

线性代数,求特征值和特征向量

4楼:dear豆小姐

||特征值 λ = -2, 3, 3,特征向量

: (1 0 -1)^t、(3 0 2)^t。

解:|λe-a| =

|λ-1 -1 -3|

| 0 λ-3 0|

|-2 -2 λ|

|λe-a| = (λ-3)*

|λ-1 -3|

|-2 λ|

|λe-a| = (λ-3)(λ^2-λ-6) = (λ+2)(λ-3)^2

特征值 λ = -2, 3, 3

对于 λ = -2, λe-a =

[-3 -1 -3]

[ 0 -5 0]

[-2 -2 -2]

行初等变换为

[ 1 1 1]

[ 0 1 0]

[ 0 2 0]

行初等变换为

[ 1 0 1]

[ 0 1 0]

[ 0 0 0]

得特征向量 (1 0 -1)^t。

对于重特征值 λ = 3, λe-a =

[ 2 -1 -3]

[ 0 0 0]

[-2 -2 3]

行初等变换为

[ 2 -1 -3]

[ 0 -3 0]

[ 0 0 0]

行初等变换为

[ 2 0 -3]

[ 0 1 0]

[ 0 0 0]

得特征向量 (3 0 2)^t。

答:特征值 λ = -2, 3, 3,特征向量: (1 0 -1)^t、(3 0 2)^t。

扩展资料

特征值是线性代数中的一个重要概念。在数学、物理学、化学、计算机等领域有着广泛的应用

设 a 是n阶方阵,如果存在数m和非零n维列向量 x,使得 ax=mx 成立,则称 m 是a的一个特征值(characteristic value)或本征值(eigenvalue)。

非零n维列向量x称为矩阵a的属于(对应于)特征值m的特征向量或本征向量,简称a的特征向量或a的本征向量。

矩阵的特征向量是矩阵理论上的重要概念之一,它有着广泛的应用。数学上,线性变换的特征向量(本征向量)是一个非简并的向量,其方向在该变换下不变。该向量在此变换下缩放的比例称为其特征值(本征值)。

5楼:匿名用户

|a-λ

e| =

1-λ 2 3

2 1-λ 3

3 3 6-λ

r1-r2

-1-λ 1+λ 0

2 1-λ 3

3 3 6-λ

c2+c1

-1-λ 0 0

2 3-λ 3

3 6 6-λ

= (-1-λ)[(3-λ)(6-λ)-18]= (-1-λ)[λ^2-9λ]

= λ(9-λ)(1+λ)

所以a的特征值为 0, 9, -1

ax = 0 的基础解系为: a1 = (1,1,-1)'

所以,a的属于特征值0的全部特征向量为: c1(1,1,-1)', c1为非零常数.

(a-9e)x = 0 的基础解系为: a2 = (1,1,2)'

所以,a的属于特征值9的全部特征向量为: c2(1,1,2)', c2为非零常数.

(a+e)x = 0 的基础解系为: a3 = (1,-1,0)'

所以,a的属于特征值-1的全部特征向量为: c3(1,-1,0)', c3为非零常数.

6楼:匿名用户

你好,满意请采纳哦!

|a-λe|=

2-λ 3 2

1 8-λ 2

-2 -14 -3-λ

= -(λ-1)(λ-3)^2=0

解得特征值为1,3,3

1对应的特征向量:

(a-e)x=0

系数矩阵:

1 3 2

1 7 2

-2 -14 -4

初等行变换结果是:

1 0 2

0 1 0

0 0 0

所以特征向量是[-2 0 1]^t

3对应的特征向量:

(a-3e)x=0

系数矩阵:

-1 3 2

1 5 2

-2 -14 -6

初等行变换结果是:

1 1 0

0 2 1

0 0 0

所以特征向量是[1 -1 2]^t

7楼:

一个基本结论:

矩阵所有特征值的和为主对角线上元素的和。

所以,两个特征值之和为

1+3=4

8楼:匿名用户

λ||λ|λe-a| =

|λ-1 -1 -3|| 0 λ-3 0||-2 -2 λ||λe-a| = (λ-3)*

|λ-1 -3|

|-2 λ|

|λe-a| = (λ-3)(λ^2-λ-6) = (λ+2)(λ-3)^2

特征值 λ = -2, 3, 3

对于 λ = -2, λe-a =

[-3 -1 -3]

[ 0 -5 0]

[-2 -2 -2]

行初等变换为

[ 1 1 1][ 0 1 0][ 0 2 0]行初等变换为

[ 1 0 1][ 0 1 0][ 0 0 0]得特征向量 (1 0 -1)^t对于重特征值 λ = 3, λe-a =

[ 2 -1 -3]

[ 0 0 0]

[-2 -2 3]

行初等变换为

[ 2 -1 -3]

[ 0 -3 0]

[ 0 0 0]

行初等变换为

[ 2 0 -3]

[ 0 1 0]

[ 0 0 0]

得特征向量 (3 0 2)^t.

9楼:豆贤静

题目给的条件是a的秩为2,所以在特征值为-2的时候,最多只有两个特征向量。

10楼:小乐笑了

|λi-a| =

λ-1 -1 -3

0 λ-3 0

-2 -2 λ

= (λ-1)(λ-3)λ-2×3×(λ-3) = (λ-3)(λ+2)(λ-3) = 0

解得λ=-2,3(两重)

11楼:匿名用户

求 λ-2 2 0

2 λ-1 2

0 2 λ

行列式值为0的解。

得特征值为 -2,1,4。

对λ^3-3λ^2-6λ+8进行因式分解。

一般求特征值时的因式分解步骤都不难, 上式容易看出1是它的一个零点,提取出λ-1,得到

λ^3-3λ^2-6λ+8=(λ-1)(λ^2-2λ-8)

12楼:匿名用户

一个线性方程组的基础解系是这样的一个解向量组:

13楼:徐临祥

1.首先让我们来了解一下特征值和特征向量的定义,如下:

2.特征子空间基本定义,如下:

3.特征多项式的定义,如下: