1楼:匿名用户
数学工具
对于某些计算像种群密度变化人口迁移
基因频率很有用
并且对于线代后面很多内容是基础
(目前只了解这些)
线性代数中的特征值特征向量与现实有什么联系,实际生活中用在**?
2楼:
如果你把a*x=lambda*x中的a看做一种变换,一种作用,那么那些
在这种作用下,只改变长短不改变方向的那些向量x就是特征向量,而特征值就是lambda,是伸缩系数,起能量增幅或者削减作用。
特征值特征向量在各学术领域均有很高级的作用,首先介绍pca,主成分分析。如果你面前有大维数组,处理起来非常棘手,直接带入问题处理速度又慢,第一想法就是能不能从中取出最有用,最有代表性的内容,俗话说:捞干的。
回想tr迹这个性质,tra=a所有特征向量的和,主对角线元的意义非凡,暂且认为主对角线和就是这个矩阵所蕴含的能量。而特征向量就是这些能量集中爆发的方向,如果你很清楚特征分解的几何意义,就知道特征向量就是数据在空间中的对称轴,特征分解就是把其他方面的能量都投影在对称轴上,所以特征分解完或者说投影完,中间就只剩一个对角阵了,非对角元全是0. 此时你把最大的那几个特征向量摘出来,其余的抛掉,如此能很大程度降低你数据的维度,但信息损失仍在可控的范围。
假设你求出100个特征值,头五个最大的和能达到这100个和的95%,那么其余95个丢掉,相对应的特征向量也丢掉。此时你的100*100的方阵只剩下5*5了,但信息量保存了95%。 金融业,银行业,保险业大量使用。
互联网,google的pagerank,就是 对www链接关系的修正邻接矩阵的,主要特征向量的投影分量,给出了页面平分。也就是搜索排名,凭什么我靠前你靠后。
人像识别,我们把图像a看成矩阵,进一步看成线性变换矩阵,把这个训练图像的特征矩阵求出来(假设取了n个能量最大的特征向量)。用a乘以这个n个特征向量,得到一个n维矢量a,也就是a在特征空间的投影。
还有聚类分析,信号处理等等。所以这块你一定要学透。
3楼:仙访戚可昕
|λλ||λe-a|
=|λ-1
-1-3||0
λ-30|
|-2-2
λ||λe-a|
=(λ-3)*
|λ-1
-3||-2
λ||λe-a|
=(λ-3)(λ^2-λ-6)
=(λ+2)(λ-3)^2
特征值λ
=-2,3,3
对于λ=-2,
λe-a
=[-3
-1-3][0
-50]
[-2-2
-2]行初等变换为[1
11][0
10][0
20]行初等变换为[1
01][0
10][0
00]得特征向量(10
-1)^t
对于重特征值λ=
3,λe-a=[
2-1-3][00
0][-2
-23]
行初等变换为[2
-1-3][0
-30][0
00]行初等变换为[2
0-3][0
10][0
00]得特征向量(30
2)^t.
线性代数,求特征值和特征向量
4楼:dear豆小姐
||特征值 λ = -2, 3, 3,特征向量
: (1 0 -1)^t、(3 0 2)^t。
解:|λe-a| =
|λ-1 -1 -3|
| 0 λ-3 0|
|-2 -2 λ|
|λe-a| = (λ-3)*
|λ-1 -3|
|-2 λ|
|λe-a| = (λ-3)(λ^2-λ-6) = (λ+2)(λ-3)^2
特征值 λ = -2, 3, 3
对于 λ = -2, λe-a =
[-3 -1 -3]
[ 0 -5 0]
[-2 -2 -2]
行初等变换为
[ 1 1 1]
[ 0 1 0]
[ 0 2 0]
行初等变换为
[ 1 0 1]
[ 0 1 0]
[ 0 0 0]
得特征向量 (1 0 -1)^t。
对于重特征值 λ = 3, λe-a =
[ 2 -1 -3]
[ 0 0 0]
[-2 -2 3]
行初等变换为
[ 2 -1 -3]
[ 0 -3 0]
[ 0 0 0]
行初等变换为
[ 2 0 -3]
[ 0 1 0]
[ 0 0 0]
得特征向量 (3 0 2)^t。
答:特征值 λ = -2, 3, 3,特征向量: (1 0 -1)^t、(3 0 2)^t。
扩展资料
特征值是线性代数中的一个重要概念。在数学、物理学、化学、计算机等领域有着广泛的应用
设 a 是n阶方阵,如果存在数m和非零n维列向量 x,使得 ax=mx 成立,则称 m 是a的一个特征值(characteristic value)或本征值(eigenvalue)。
非零n维列向量x称为矩阵a的属于(对应于)特征值m的特征向量或本征向量,简称a的特征向量或a的本征向量。
矩阵的特征向量是矩阵理论上的重要概念之一,它有着广泛的应用。数学上,线性变换的特征向量(本征向量)是一个非简并的向量,其方向在该变换下不变。该向量在此变换下缩放的比例称为其特征值(本征值)。
5楼:匿名用户
|a-λ
e| =
1-λ 2 3
2 1-λ 3
3 3 6-λ
r1-r2
-1-λ 1+λ 0
2 1-λ 3
3 3 6-λ
c2+c1
-1-λ 0 0
2 3-λ 3
3 6 6-λ
= (-1-λ)[(3-λ)(6-λ)-18]= (-1-λ)[λ^2-9λ]
= λ(9-λ)(1+λ)
所以a的特征值为 0, 9, -1
ax = 0 的基础解系为: a1 = (1,1,-1)'
所以,a的属于特征值0的全部特征向量为: c1(1,1,-1)', c1为非零常数.
(a-9e)x = 0 的基础解系为: a2 = (1,1,2)'
所以,a的属于特征值9的全部特征向量为: c2(1,1,2)', c2为非零常数.
(a+e)x = 0 的基础解系为: a3 = (1,-1,0)'
所以,a的属于特征值-1的全部特征向量为: c3(1,-1,0)', c3为非零常数.
6楼:匿名用户
你好,满意请采纳哦!
|a-λe|=
2-λ 3 2
1 8-λ 2
-2 -14 -3-λ
= -(λ-1)(λ-3)^2=0
解得特征值为1,3,3
1对应的特征向量:
(a-e)x=0
系数矩阵:
1 3 2
1 7 2
-2 -14 -4
初等行变换结果是:
1 0 2
0 1 0
0 0 0
所以特征向量是[-2 0 1]^t
3对应的特征向量:
(a-3e)x=0
系数矩阵:
-1 3 2
1 5 2
-2 -14 -6
初等行变换结果是:
1 1 0
0 2 1
0 0 0
所以特征向量是[1 -1 2]^t
7楼:
一个基本结论:
矩阵所有特征值的和为主对角线上元素的和。
所以,两个特征值之和为
1+3=4
8楼:匿名用户
λ||λ|λe-a| =
|λ-1 -1 -3|| 0 λ-3 0||-2 -2 λ||λe-a| = (λ-3)*
|λ-1 -3|
|-2 λ|
|λe-a| = (λ-3)(λ^2-λ-6) = (λ+2)(λ-3)^2
特征值 λ = -2, 3, 3
对于 λ = -2, λe-a =
[-3 -1 -3]
[ 0 -5 0]
[-2 -2 -2]
行初等变换为
[ 1 1 1][ 0 1 0][ 0 2 0]行初等变换为
[ 1 0 1][ 0 1 0][ 0 0 0]得特征向量 (1 0 -1)^t对于重特征值 λ = 3, λe-a =
[ 2 -1 -3]
[ 0 0 0]
[-2 -2 3]
行初等变换为
[ 2 -1 -3]
[ 0 -3 0]
[ 0 0 0]
行初等变换为
[ 2 0 -3]
[ 0 1 0]
[ 0 0 0]
得特征向量 (3 0 2)^t.
9楼:豆贤静
题目给的条件是a的秩为2,所以在特征值为-2的时候,最多只有两个特征向量。
10楼:小乐笑了
|λi-a| =
λ-1 -1 -3
0 λ-3 0
-2 -2 λ
= (λ-1)(λ-3)λ-2×3×(λ-3) = (λ-3)(λ+2)(λ-3) = 0
解得λ=-2,3(两重)
11楼:匿名用户
求 λ-2 2 0
2 λ-1 2
0 2 λ
行列式值为0的解。
得特征值为 -2,1,4。
对λ^3-3λ^2-6λ+8进行因式分解。
一般求特征值时的因式分解步骤都不难, 上式容易看出1是它的一个零点,提取出λ-1,得到
λ^3-3λ^2-6λ+8=(λ-1)(λ^2-2λ-8)
12楼:匿名用户
一个线性方程组的基础解系是这样的一个解向量组:
13楼:徐临祥
1.首先让我们来了解一下特征值和特征向量的定义,如下:
2.特征子空间基本定义,如下:
3.特征多项式的定义,如下: