答Rich──關於特徵值與特徵向量的物理意義

網友Rich留言:

哈囉周老師你好。想請教一個問題:eigenvalue and eigenvector 所代表的物理意義是什麼?謝謝。

 
答曰:

假設 \mathcal{V}\mathcal{W} 為兩個向量空間。首先我們要知道線性變換 T:\mathcal{V}\to\mathcal{W} 是一種數學機器,它將輸入向量 \mathbf{x}\in\mathcal{V} 映射至輸出向量 T(\mathbf{x})\in\mathcal{W},稱為像 (image)。對於任意 \mathbf{x},\mathbf{y}\in\mathcal{V} 與純量 c,線性變換 T 滿足下列性質:

\begin{aligned}  T(\mathbf{x}+\mathbf{y})&=T(\mathbf{x})+T(\mathbf{y}),\\  T(c\mathbf{x})&=cT(\mathbf{x}).\end{aligned}

\mathcal{V}=\mathcal{W},線性變換 T 也稱為線性算子。為方便說明,以下考慮幾何向量空間 \mathbb{R}^2。任何一個線性算子 T:\mathbb{R}^2\to\mathbb{R}^2 都可用 2\times 2 階實矩陣 A 表示如下:

T(\mathbf{x})=A\mathbf{x}

其中 \mathbf{x}\in\mathbb{R}^2。我們稱 A 是線性算子 T 的變換矩陣或表示矩陣。

 
設想我們被指派擔任矩陣設計工作,第一個任務是設計對X-軸鏡射 (反射,reflection) 的變換矩陣。對於 \mathbf{x}=\begin{bmatrix}  x_1\\  x_2  \end{bmatrix},寫出

\displaystyle  T\left(\begin{bmatrix}  x_1\\  x_2  \end{bmatrix}\right)=\left[\!\!\begin{array}{r}  x_1\\  -x_2  \end{array}\!\!\right]=x_1\begin{bmatrix}  1\\  0  \end{bmatrix}+x_2\left[\!\!\begin{array}{r}  0\\  -1  \end{array}\!\!\right]=\left[\!\!\begin{array}{cr}  1&0\\  0&-1  \end{array}\!\!\right]\begin{bmatrix}  x_1\\  x_2  \end{bmatrix}

上式裡的對角矩陣即為所求。令

D=\left[\!\!\begin{array}{cr}  1&0\\  0&-1  \end{array}\!\!\right]

往後我們稱 D 為標準鏡射矩陣。接者考慮一般情況。令 L=\{t\mathbf{v}_1\vert t\in\mathbb{R}\} 代表一條穿越原點的直線。對直線 L 鏡射的變換矩陣為何?我們從鏡射算子的幾何性質著手 (另一個方法是直接解出變換矩陣,見“幾何變換矩陣的設計”)。令 \mathbf{v}_2 表示直線 L 的法向量,\mathbf{v}_2 正交於 \mathbf{v}_1 (見下圖)。

對直線 L 的鏡射

 
直線 L 的指向向量 \mathbf{v}_1 和法向量 \mathbf{v}_2 經過鏡射算子 T 的映射結果分別是

\begin{aligned}  T(\mathbf{v}_1)&=\mathbf{v}_1=1\cdot\mathbf{v}_1,\\  T(\mathbf{v}_2)&=-\mathbf{v}_2=(-1)\cdot\mathbf{v}_2.  \end{aligned}

注意上面兩式具有相同型態,即

T(\mathbf{v})=\lambda\mathbf{v}

數學家稱純量 \lambda 為線性算子 T 的特徵值 (eigenvalue),對應的 (非零) 向量 \mathbf{v} 為特徵向量 (eigenvector),理由是它們幾乎完全彰顯了線性算子 T 所隱含的固有特性。上例中,鏡射算子 T 有特徵值 \lambda_1=1\lambda_2=-1,對應的特徵向量分別是 \mathbf{v}_1\mathbf{v}_2。特徵方程講述兩件事:第一,特徵向量 \mathbf{v}_i 經鏡射算子 T 得到的像 T(\mathbf{v}_i) 屬於子空間 \mathrm{span}\{\mathbf{v}_i\},特徵值 \lambda_i 決定 T(\mathbf{v}_i) 的伸縮倍數,其正負號則決定指向是否相同或相反。第二,除了特徵空間 \mathrm{span}\{\mathbf{v}_i\},其他不屬於這些子空間的非零向量皆不滿足特徵方程 (否則它們也會被稱為特徵向量)。

 
線性算子 T 的特徵值和特徵向量代表甚麼物理意義呢?這個問題沒有一定的答案,原因在於不同的線性算子 T 具有不同的作用與功能,因此賦予特徵值和特徵向量不同的物理意義。但如果針對上例發問:定義於 \mathbb{R}^2 的鏡射算子 T 的特徵值和特徵向量代表甚麼物理意義?答案是對應特徵值 \lambda_1=1 的特徵向量 \mathbf{v}_1 代表鏡射線 L 的指向,對應特徵值 \lambda_2=-1 的特徵向量 \mathbf{v}_2 則為 L 的法向量。鏡射算子 T 的特徵值和特徵向量不僅明確地告訴我們 T 的一切作為,同時也提供了定義於 \mathbb{R}^2 的鏡射變換的充分與必要條件:(1) 特徵值是 1-1,(2) 對應的特徵向量彼此正交。例如,標準鏡射矩陣 D 有特徵值 1-1 (對角矩陣的主對角元即為特徵值),標準單位向量 \mathbf{e}_1=\begin{bmatrix}  1\\  0  \end{bmatrix}, \mathbf{e}_2=\begin{bmatrix}  0\\  1  \end{bmatrix} 分別為對應的特徵向量。

 
若一個鏡射算子 T 對應特徵值 1,-1 的特徵向量分別為 \mathbf{v}_1=\begin{bmatrix}  2\\  1  \end{bmatrix}, \mathbf{v}_2=\left[\!\!\begin{array}{r}  -1\\  2  \end{array}\!\!\right],如何求出代表 T 的變換矩陣?數學家想出了一個聰明的辦法:藉助線性算子 T 的不變性來建構變換矩陣。將獨立的特徵向量組成 \mathbb{R}^2 的一組基底 \boldsymbol{\beta}=\{\mathbf{v}_1,\mathbf{v}_2\},任一向量 \mathbf{x}\in\mathbb{R}^2 可唯一表示成 \mathbf{v}_1\mathbf{v}_2 的線性組合:

\mathbf{x}=c_1\mathbf{v}_1+c_2\mathbf{v}_2

其中組合係數 c_1,c_2 可合併成 \mathbf{x} 參考基底 \boldsymbol{\beta} 的座標向量,記為 [\mathbf{x}]_{\boldsymbol{\beta}}=\begin{bmatrix}  c_1\\  c_2  \end{bmatrix}。將上式代入鏡射算子 T(\cdot),利用線性變換的基本性質以及特徵方程 T(\mathbf{v}_1)=\mathbf{v}_1T(\mathbf{v}_2)=-\mathbf{v}_2,可得

\displaystyle  T(\mathbf{x})=T(c_1\mathbf{v}_1+c_2\mathbf{v}_2)=c_1T(\mathbf{v}_1)+c_2T(\mathbf{v}_2)=c_1\mathbf{v}_1-c_2\mathbf{v}_2

再寫出 T(\mathbf{x}) 參考基底 \boldsymbol{\beta} 的座標向量:

[T(\mathbf{x})]_{\boldsymbol{\beta}}=\left[\!\!\begin{array}{r}  c_1\\  -c_2  \end{array}\!\!\right]=\left[\!\!\begin{array}{cr}  1&0\\  0&-1  \end{array}\!\!\right]\begin{bmatrix}  c_1\\  c_2  \end{bmatrix}=D[\mathbf{x}]_{\boldsymbol{\beta}}

我們得到一個令人震驚的結果:若參考特徵向量構成的基底,所有的鏡射矩陣必可轉換成標準鏡射矩陣 D。剩下的工作是計算座標變換。將線性組合寫成矩陣乘法:

\mathbf{x}=c_1\mathbf{v}_1+c_2\mathbf{v}_2=\begin{bmatrix}  \mathbf{v}_1&\mathbf{v}_2  \end{bmatrix}\begin{bmatrix}  c_1\\  c_2  \end{bmatrix}=S[\mathbf{x}]_{\boldsymbol{\beta}}

其中 S=\begin{bmatrix}  \mathbf{v}_1&\mathbf{v}_2  \end{bmatrix}=\left[\!\!\begin{array}{cr}  2&-1\\  1&2  \end{array}\!\!\right] 稱為座標變換矩陣。因為 [\mathbf{x}]_{\boldsymbol{\beta}}=S^{-1}\mathbf{x}[T(\mathbf{x})]_{\boldsymbol{\beta}}=S^{-1}T(\mathbf{x}),代入上述參考基底 \boldsymbol{\beta} 的座標向量映射關係,即得 S^{-1}T(\mathbf{x})=DS^{-1}\mathbf{x}。等號兩邊同時左乘 S,可得

T(\mathbf{x})=SDS^{-1}\mathbf{x}=A\mathbf{x}

或圖示如下:

特徵值與特徵向量的物理意義

T 的變換矩陣為

\displaystyle  A=SDS^{-1}=\left[\!\!\begin{array}{cr}  2&-1\\  1&2  \end{array}\!\!\right]\left[\!\!\begin{array}{cr}  1&0\\  0&-1  \end{array}\!\!\right]\frac{1}{5}\left[\!\!\begin{array}{rc}  2&1\\  -1&2  \end{array}\!\!\right]=\frac{1}{5}\left[\!\!\begin{array}{cr}  3&4\\  4&-3  \end{array}\!\!\right]

 
給定一個變換矩陣 A,透過特徵分析,若 A 可分解成 A=SDS^{-1},稱為對角化 (diagonalization),則 A 的實際作為 (或者說物理意義) 可解釋如下:因為對角矩陣 D 不含耦合成分 (非主對角元),故 A 的特徵值 \lambda_i (即 D 的主對角元) 代表在新座標系統下第 i 個座標經過變換矩陣 A 映射後的伸縮比例,對應的特徵向量 \mathbf{v}_i 則指出新座標系統的第 i 軸方向。以上討論顯示特徵分析的數學原理建立於線性變換的不變性上。

相關閱讀:
Advertisements
本篇發表於 特徵分析, 答讀者問 並標籤為 , 。將永久鏈結加入書籤。

12 則回應給 答Rich──關於特徵值與特徵向量的物理意義

  1. ccjou 說道:

    我整理了一些常見的矩陣特徵值與特徵向量,加入專題探究分頁:
    https://ccjou.wordpress.com/%E5%B0%88%E9%A1%8C%E6%8E%A2%E7%A9%B6/%E7%9F%A9%E9%99%A3%E7%9A%84%E7%89%B9%E5%BE%B5%E5%80%BC%E8%88%87%E7%89%B9%E5%BE%B5%E5%90%91%E9%87%8F/

    真實的特徵向量物理意義:google 網頁排名順序,請見
    https://ccjou.wordpress.com/2009/05/02/google-%E6%90%9C%E5%B0%8B%E5%BC%95%E6%93%8E%E4%BD%BF%E7%94%A8%E7%9A%84%E7%9F%A9%E9%99%A3%E9%81%8B%E7%AE%97/

    真實的特徵值物理意義:1940年美國華盛頓州的Tacoma Narrows懸索橋塌斷,有一說是強風引發自然頻率共振造成橋身斷裂。自然頻率是物體結構一旦在該頻率震動即可持續維持運動,像是我們小時候玩的盪鞦韆,人離開了,它還在持續擺動,後來人經過看見以為自己碰見鬼了。自然頻率的數學表達就是特徵值平方根。

  2. Watt Lin 說道:

    請問老師:
    特徵值eigen value與特徵向量eigen vector的意義,以二維、三維空間為例,用幾何圖示,可以理解為保持相同方向(角度)的向量伸縮。
    聯想複變函數論的「保角映射」(conformal mapping),可說是相同的概念嗎?或者,本質不同?
    (我自己看書,學一點點「複變」,沒上正式課程,若問錯問題,敬請見諒!)

  3. Watt Lin 說道:

    感謝老師!
    衷心企盼您寫出說明。
    由老師您的另一篇文章 「從線性代數看微分方程」
    ————————————————
    https://ccjou.wordpress.com/2009/11/18/%E5%BE%9E%E7%B7%9A%E6%80%A7%E4%BB%A3%E6%95%B8%E7%9C%8B%E5%BE%AE%E5%88%86%E6%96%B9%E7%A8%8B/
    微分方程與線性代數都有特徵方程式 (characteristic equation) 一詞 . . . . . .
    撇開微分方程底下偽裝的線性變換、零空間和通解的結構,僅就特徵方程式而言,微分方程與線性代數確實有著密切的關係。
    ————————————————
    我猜想,不僅僅這兩門課有關聯,「eigen」的概念,好像也出現在許多其他地方。各種課程的教學,似乎很少有老師講出它們的共同點。
    如果有人講出來,將有助大家把多領域的觀念,融會貫通,也能提升學習的樂趣!

  4. Flz Huang 說道:

    请问一下,下面这个链接中p23页计算eigenvector是怎么一个过程?好像不太对?
    https://mi.boku.ac.at/ahp/ahptutorial.pdf
    和我使用Octave计算出来的不一样,使用Octave的eig()函数算出来的值是一个复数。

發表迴響

在下方填入你的資料或按右方圖示以社群網站登入:

WordPress.com Logo

您的留言將使用 WordPress.com 帳號。 登出 / 變更 )

Twitter picture

您的留言將使用 Twitter 帳號。 登出 / 變更 )

Facebook照片

您的留言將使用 Facebook 帳號。 登出 / 變更 )

Google+ photo

您的留言將使用 Google+ 帳號。 登出 / 變更 )

連結到 %s