r036_logo

特徵值與特徵向量(Eigenvalues and Eigenvectors)

第一步是解特徵方程式找到特徵值,第二步是根據特徵值找到對應的特徵向量。

定義

給定一個 n×nn \times n方矩陣 AA,若存在一個非零向量 XX 以及一個常數 λ\lambda ,滿足以下公式

AX=λXAX = \lambda X
  • λ\lambda 為矩陣 AA特徵值(Eigenvalue)
  • XX 為對應於 λ\lambda特徵向量(Eigenvector)

Eigenvalues_and_Eigenvectors_1

公式轉換

透過對 λ\lambda 乘上 II 單位矩陣,得到 λX=(λI)X\lambda X = (\lambda I) X,使純量成為特徵矩陣,再透過矩陣乘法的分配律,使XX合併,得到

AX=λX(AλI)X=0AX = \lambda X \Rightarrow (A - \lambda I)X = 0

特徵方程(Characteristic Equation)

只有在 det(AλI)=0\det(A - \lambda I) = 0 時才會有多個非零解。

det(AλI)=0\det(A - \lambda I) = 0

解出特徵值 λ\lambda

這是一個以 λ\lambda 為變數的多項式方程式,其階數最多為矩陣 AA 的階數 nnλ\lambda 的可能解最多有 nn

求特徵向量 XX

代入每個 λ\lambda,解該線性系統,找出非零解 XX

Eigenvalues_and_Eigenvectors_2

特徵向量用途

以下是的特徵向量用途,聚焦在人工智能領域中,每個部份將在其他文章中探討。

1. 主成分分析(PCA)

利用資料的協方差矩陣的特徵向量進行降維,保留最大變異方向,常用於特徵選擇與視覺化。

2. 奇異值分解(SVD)

將資料矩陣分解為特徵向量與特徵值組合,用於語意分析、推薦系統與資料壓縮。

3. 圖神經網路(GNN)與譜圖理論

透過圖的拉普拉斯矩陣的特徵向量進行節點嵌入與頻譜卷積,實現圖結構學習。

4. 自注意力分析(Self-Attention)

雖非直接依賴特徵向量,但可用特徵值分析理解注意力矩陣的資訊流與結構穩定性。

5. 強化學習(Reinforcement Learning)

轉移機率矩陣的主特徵向量可用來計算穩態策略或長期行為分布。