重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
求特征值的传统方法是令特征多项式| AE-A| = 0,求出A的特征值,对于A的任一特征值h,特征方程( aE- A)X= 0的所有非零解X即为矩阵A的属于特征值N的特征向量两者的计算是分割的,一个是计算行列式,另一个是解齐次线性方程组,且计算量都较大。使用matlab可以方便的计算任何复杂的方阵的特征值和特征向量:
站在用户的角度思考问题,与客户深入沟通,找到播州网站设计与播州网站推广的解决方案,凭借多年的经验,让设计与互联网技术结合,创造个性化、用户体验好的作品,建站类型包括:网站建设、做网站、企业官网、英文网站、手机端网站、网站推广、申请域名、虚拟主机、企业邮箱。业务覆盖播州地区。
1、首先需要知道计算矩阵的特征值和特征向量要用eig函数,可以在命令行窗口中输入help eig,查看一下eig函数的用法,如下图所示:
2、在命令行窗口中输入a=[1 2 3;2 4 5;7 8 9],按回车键之后,输入[x,y]=eig(a),如下图所示:
3、按回车键之后,得到了x,y的值,其中x的每一列值表示矩阵a的一个特征向量,这里有3个特征向量,y的对角元素值代表a矩阵的特征值,如下图所示:
4、步如果我们要取y的对角元素值,可以使用diag(y),如下图所示:
5、按回车键之后,可以看到已经取出y的对角线元素值,也就是a矩阵的特征值,如下图所示:
6、第六步我们也可以在命令行窗口help diag,可以看到关于diag函数的用法,如下图所示:
注意事项:
特征值和特征向量的应用:
1、可以用在研究物理、化学领域的微分方程、连续的或离散的动力系统中。例如,在力学中,惯量的特征向量定义了刚体的主轴。惯量是决定刚体围绕质心转动的关键数据;
2、数学生态学家用来预测原始森林遭到何种程度的砍伐,会造成猫头鹰的种群灭亡;
3、著名的图像处理中的PCA方法,选取特征值最高的k个特征向量来表示一个矩阵,从而达到降维分析+特征显示的方法,还有图像压缩的K-L变换。再比如很多人脸识别,数据流模式挖掘分析等方面。
简要说一下自己的思路 1,有两个代理可用,所以爬的时候随机选取一个 2,复制了一些User-agnet,随机选一个 3,爬一次随机睡眠3~6s 这样大概爬200次左右,就不能再 爬了
一般步骤来实现PCA算法
(1)零均值化
假如原始数据集为矩阵dataMat,dataMat中每一行代表一个样本,每一列代表同一个特征。零均值化就是求每一列的平均值,然后该列上的所有数都减去这个均值。也就是说,这里零均值化是对每一个特征而言的,零均值化都,每个特征的均值变成0。实现代码如下:
[python] view plain copy
def zeroMean(dataMat):
meanVal=np.mean(dataMat,axis=0) #按列求均值,即求各个特征的均值
newData=dataMat-meanVal
return newData,meanVal
函数中用numpy中的mean方法来求均值,axis=0表示按列求均值。
该函数返回两个变量,newData是零均值化后的数据,meanVal是每个特征的均值,是给后面重构数据用的。
(2)求协方差矩阵
[python] view plain copy
newData,meanVal=zeroMean(dataMat)
covMat=np.cov(newData,rowvar=0)
numpy中的cov函数用于求协方差矩阵,参数rowvar很重要!若rowvar=0,说明传入的数据一行代表一个样本,若非0,说明传入的数据一列代表一个样本。因为newData每一行代表一个样本,所以将rowvar设置为0。
covMat即所求的协方差矩阵。
(3)求特征值、特征矩阵
调用numpy中的线性代数模块linalg中的eig函数,可以直接由covMat求得特征值和特征向量:
[python] view plain copy
eigVals,eigVects=np.linalg.eig(np.mat(covMat))
eigVals存放特征值,行向量。
eigVects存放特征向量,每一列带别一个特征向量。
特征值和特征向量是一一对应的
(4)保留主要的成分[即保留值比较大的前n个特征]
第三步得到了特征值向量eigVals,假设里面有m个特征值,我们可以对其排序,排在前面的n个特征值所对应的特征向量就是我们要保留的,它们组成了新的特征空间的一组基n_eigVect。将零均值化后的数据乘以n_eigVect就可以得到降维后的数据。代码如下:
[python] view plain copy
eigValIndice=np.argsort(eigVals) #对特征值从小到大排序
n_eigValIndice=eigValIndice[-1:-(n+1):-1] #最大的n个特征值的下标
n_eigVect=eigVects[:,n_eigValIndice] #最大的n个特征值对应的特征向量
lowDDataMat=newData*n_eigVect #低维特征空间的数据
reconMat=(lowDDataMat*n_eigVect.T)+meanVal #重构数据
return lowDDataMat,reconMat
代码中有几点要说明一下,首先argsort对特征值是从小到大排序的,那么最大的n个特征值就排在后面,所以eigValIndice[-1:-(n+1):-1]就取出这个n个特征值对应的下标。【python里面,list[a:b:c]代表从下标a开始到b,步长为c。】
Python 中,可以使用 NumPy 库来生成随机数组并进行矩阵运算。
首先,可以使用 numpy.random.rand 函数生成一个12阶的随机非负方阵:
import numpy as np
A = np.random.rand(12, 12)
然后,可以使用 numpy.linalg.eig 函数求出矩阵的特征值:
Copy codeeigenvalues, eigenvectors = np.linalg.eig(A)
如果矩阵的特征值是对角线上的元素,那么它就是相似于对角阵。
计算方阵所对应的行列式的最小余子式,可以使用 numpy.linalg.det 函数计算行列式,然后枚举所有可能的余子式并取最小值:
Copy codedef min_cofactor(A):
determinant = np.linalg.det(A)
min_cofactor = float('inf')
for i in range(A.shape[0]):
for j in range(A.shape[1]):
cofactor = np.linalg.det(np.delete(np.delete(A, i, axis=0), j, axis=1))
min_cofactor = min(min_cofactor, cofactor)
return min_cofactor
最后,每列选取一个元素,使相邻三列的和最小,可以枚举所有的列并求出和的最小值:
Copy codedef min_sum(A):
min_sum = float('inf') for i in range(A.shape[1] - 2):
column_sum = A[:,i] + A[:,i+1] + A[:,i+2]
min_column_sum = min(column_sum)
min_sum = min(min_sum, min_column_sum) return min_sum
希望以上答案能够帮到你。
这两个命令是完全不同的呀。
S=svd(A)表示对矩阵A进行SVD分解,分解的结果是得到3个矩阵,如果返回值只有一个,那么可以得到A的奇异值向量。
eig(A)表示求矩阵A的特征值。
所以区别就是,svd得到的是A的奇异值,eig得到的是A的特征值。
A'表示A的转置矩阵,A'*A的n个非负特征值的平方根叫作矩阵A的奇异值。记为σi(A)。
希望可以帮助你,望采纳!