特徵值與特徵向量(Eigenvalues and Eigenvectors)
第一步是解特徵方程式找到特徵值,第二步是根據特徵值找到對應的特徵向量。
定義
給定一個 的方矩陣 ,若存在一個非零向量 以及一個常數 ,滿足以下公式
- 為矩陣 的特徵值(Eigenvalue)
- 為對應於 的特徵向量(Eigenvector)
公式轉換
透過對 乘上 單位矩陣,得到 ,使純量成為特徵矩陣,再透過矩陣乘法的分配律,使合併,得到
特徵方程(Characteristic Equation)
只有在 時才會有多個非零解。
解出特徵值
這是一個以 為變數的多項式方程式,其階數最多為矩陣 的階數 , 的可能解最多有 個
求特徵向量
代入每個 ,解該線性系統,找出非零解 。
特徵向量用途
以下是的特徵向量用途,聚焦在人工智能領域中,每個部份將在其他文章中探討。
1. 主成分分析(PCA)
利用資料的協方差矩陣的特徵向量進行降維,保留最大變異方向,常用於特徵選擇與視覺化。
2. 奇異值分解(SVD)
將資料矩陣分解為特徵向量與特徵值組合,用於語意分析、推薦系統與資料壓縮。
3. 圖神經網路(GNN)與譜圖理論
透過圖的拉普拉斯矩陣的特徵向量進行節點嵌入與頻譜卷積,實現圖結構學習。
4. 自注意力分析(Self-Attention)
雖非直接依賴特徵向量,但可用特徵值分析理解注意力矩陣的資訊流與結構穩定性。
5. 強化學習(Reinforcement Learning)
轉移機率矩陣的主特徵向量可用來計算穩態策略或長期行為分布。