本文的閱讀等級:中級
令 為一個
階矩陣。若
,
,滿足
,我們稱
是
的一個特徵向量,
是對應的特徵值。淺白地說,特徵向量
經過矩陣 (線性變換)
映射得到的像 (image)
不改變方向,惟長度伸縮了
倍。尼采在《查拉圖斯特拉如是說》裡說:
知識的擁護者必須不僅愛他的敵人,同樣地也必須能夠恨他的朋友。假如你總是自認是一位學生,那麼你從一位老師所獲得的將是非常貧乏的。
尼采的意思是,學生應當審問慎思,才能分辨老師和課本說的話究竟是教條戒律還是客觀真理。在線性代數中,我們總是默認向量是行向量 (column vector),故習以為常地在矩陣的右邊乘一行向量。倘若我們在矩陣的左邊乘一列向量 (row vector),是否也可以平行發展出一套特徵向量與特徵值理論?雖然教科書鮮少提及,但矩陣左乘一列向量並不是一個毫無意義的幼稚想法,下面我們就來探討這個問題。
若一非零向量 使得
,則
稱為
對應特徵值
的一個左特徵向量。左特徵向量沒有統一的定義,另一個常見的定義式為
。這裡我們採用
而非
的用意在於方便表達複向量的內積 (複向量
和
的內積定義為
,見“內積的定義”)。為不造成混淆,本文稱滿足
的非零向量
為右特徵向量。左特徵方程
等號兩邊取轉置,再計算共軛,可得
。
所以, 是
對應特徵值
的右特徵向量,而且更重要的是,
是
對應特徵值
的右特徵向量。矩陣的特徵向量有左右之分,特徵值則無此區別,原因在於
和
有相同的特徵值 (見“矩陣與其轉置的相似性”)。上面結果也說明如果
有特徵值
,則
有特徵值
。
在甚麼情況下,對應相同的特徵值,一個矩陣的左特徵向量等同右特徵向量?若 是一 Hermitian 矩陣,
,則特徵值必為實數 (見“特殊矩陣 (9):Hermitian 矩陣”),即
。因此,Hermitian 矩陣
對應任一特徵值
的左特徵向量等於右特徵向量 (嚴格來說,左特徵空間等於右特徵空間)。對於非 Hermitian 矩陣,如果我們知道
的右特徵向量,由此得以演繹出
的左特徵向量嗎?除了正交性,右特徵向量和左特徵向量不存在明確的關係。下面的定理稱為雙正交原則 (principle of biorthogonality)。
定理一:若 是一個
階矩陣,且
和
是
的兩個特徵值,
,則對應
的任一左特徵向量正交於對應
的任一右特徵向量。
令 是
對應
的一左特徵向量,
是
對應
的一右特徵向量。考慮
的兩種計算方式:
因為 ,
僅成立於
,證明
和
彼此正交。
使用定理一立即可推論 Hermitian 矩陣對應相異特徵值的 (右) 特徵向量相互正交。另一方面,對應相同的特徵值,我們想知道一個矩陣的右特徵向量和左特徵向量具有甚麼關係。
定理二:若 是一個
階矩陣,且
是
的一個簡單特徵值 (simple eigenvalue),即
的代數重數為
,則對應
的左特徵向量
不正交於對應
的右特徵向量
,即
。
設 ,
,且
。根據 Schur 定理,
相似於一分塊上三角矩陣 (見“矩陣三角化的 Schur 定理”):
,
其中 ,
的第一個行向量為
,
是一
階矩陣,且
不為
的特徵值。觀察可知
,故標準單位向量
是
的特徵向量,對應特徵值
。考慮
。
設 ,
。若
,
,則
。
因此 是
的特徵值,也就是說,
是
的特徵值,這與原命題矛盾,即知
的第一個元必不等於零。所以,
。
使用矩陣運算, 可表示為
,同樣地,
可表示為
,這說明
和
分別為
的左特徵向量和右特徵向量。因為
,必有
,
,且
,
,故
。
對於簡單特徵值,我們只能斷定左特徵向量和右特徵向量彼此不正交。但如果一個矩陣有完整的線性獨立的右特徵向量集,我們可以推得完整的線性獨立的左特徵向量集,反之亦然。
定理三:令 是一個
階矩陣,
和
分別是對應特徵值
的右特徵向量和左特徵向量,
。若
可對角化,則
,
其中 是可逆對角矩陣。在不失一般性的原則下,我們可以將左右特徵向量予以歸一化使得每一
,即有
。
證明於下:若 是一可對角化矩陣,寫出
,其中
且
。等號兩邊左乘
,可得
。設
,
就有 ,
。因為
,故得證。
將右特徵向量和左特徵向量代入 ,可對角化矩陣
有下列表達式:
稱為譜分解 (spectral decomposition)。令 ,其中
若
,
若
。左特徵向量的價值之一在於立即推論下列性質成立:
(1) ,
。
(2) ,
。
(3) 。
因為性質 (1), 也稱為譜投影算子 (spectral projector),
是沿著行空間
至特徵空間
的唯一投影矩陣 (見“可對角化矩陣的譜分解”)。
最後補充一個右特徵向量和左特徵向量的概念性質。對於可對角化矩陣 ,右特徵向量集
構成
的一組基底,左特徵向量集的共軛
稱為
的對偶基底 (dual basis)。簡單說,
的列向量集合就是
的對偶基底。(詳細討論請參閱“線性泛函與對偶空間”。) 顧名思義,對偶表示兩者互為對方的鏡像,因為這個緣故,我們也就沒必要另外再發展一套左特徵向量與特徵值理論。
博主原文明显有误。原文第三自然段(即尼采的话后一段):“……在线性代数中默认一个向量是行向量(column vector)……”,这显然是错误的。线性代数里默认向量的定义是列向量(column vector)!括号里的标明的英语翻译成中文正是“列向量”。后文中“故习以为常地右乘一个行向量”也错了,应为“习以为常地右乘一个列向量(column vector)”!在后文中有类似错误,似乎博主把列向量和行向量反过来了!!
誤會一場,請見
https://ccjou.wordpress.com/2012/04/17/%E5%85%A9%E5%B2%B8%E7%B7%9A%E6%80%A7%E4%BB%A3%E6%95%B8%E7%9A%84%E7%BF%BB%E8%AD%AF%E5%90%8D%E8%A9%9E%E5%8F%83%E7%85%A7/
這麼多嘆號,樓主何故如此激動?
曾參的母親起初聽聞曾參殺人也是不信,後來接二連三傳來相同的訊息,曾老太太最後還是投杼踰牆而走(丟下梭具爬梯翻牆開溜,以免受累)。更何況上文行向量和列向量使用超過三回,莫怪讀者以為是我錯用行列。
您好,可以請問您左特徵向量可以直接從右特徵向量求得嗎?
使用 Moore-Penrose pseudoinverse這樣是正確的嗎?
因為我看到一段matlab 程式求左特徵向量的方法為
l = pinv (r);
謝謝
上文說:除了正交性,右特徵向量和左特徵向量不存在明確的關係。自然,兩者並非彼此的Moore-Penrose pseudoinverse。舉例來說,
是
的右特徵向量,它的 pinv 是
,但
的左特徵向量是
。