2维
PCA即最大方差线性投影
3维
PCA is just the SVD!
$$A=U\Sigma V^T$$
SVD is nothing more than decomposing vectors onto orthogonal axes!
恭喜,您已经掌握了神奇的SVD的核心!!!
向量投影
矩阵相乘
Vectors dot TO matrix multiply
$$A=SV^{-1}=SV^{T}$$
But we need this:$$A=U\Sigma V^{T}$$
令$$\sigma_1^2=s_{a1}^2+s_{b1}^2$$
$$\sigma_2^2=s_{a2}^2+s_{b2}^2$$
最后,$$A=U\Sigma V^{T}$$
ICA vs PCA
假设有如下数据或信号$S=[S_1(t),S_2(t),...,S_n(t)]$
信号的线性组合为$Y(t)=AS(t)$
ICA试图从$Y$中恢复原始信号$S$
ICA试图寻找:
主要算法: