座標變換與基底變換的對應關係

本文的閱讀等級:中級

基底 (或簡稱基) 是附著於向量空間的一組座標系統。設 \boldsymbol{\beta}=\{\mathbf{v}_1,\ldots,\mathbf{v}_n\}n 維向量空間 \mathcal{V} 的一組基底,我們知道任何向量 \mathbf{x}\in\mathcal{V} 都可以寫成基底向量 \mathbf{v}_1,\ldots,\mathbf{v}_n 的線性組合

\mathbf{x}=c_1\mathbf{v}_1+\cdots+c_n\mathbf{v}_n

而且權重 c_1,\ldots,c_n 由向量 \mathbf{x} 唯一決定。將有序純量 (c_1,\ldots,c_n) 視為 \mathbb{R}^n 向量 (複數空間則為 \mathbb{C}^n),記作 [\mathbf{x}]_{\boldsymbol{\beta}},意指 \mathbf{x} 參考基底 \boldsymbol{\beta} 的座標向量。因為向量 \mathbf{x} 和座標向量 [\mathbf{x}]_{\boldsymbol{\beta}} 存在一對一的映射關係:

\mathbf{x}\rightleftharpoons[\mathbf{x}]_{\boldsymbol{\beta}}=\begin{bmatrix}  c_1\\  \vdots\\  c_n  \end{bmatrix}

我們稱向量空間 \mathcal{V} 和幾何向量空間 \mathbb{R}^n 是同構的 (isomorphic,“同構的向量空間”)。座標映射的實際功用是把發生於向量空間 \mathcal{V} 的問題搬移至另一個富含幾何意義的 \mathbb{R}^n 空間來處理,待處理完畢後,再將結果轉換回原本的 \mathcal{V} 空間。顯然,一向量若參考不同的座標系統 (即基底),便有不同的座標;反過來講,在不同的座標系統下,同一座標向量則對應不同的向量。本文稱前者為座標變換 (change of coordinates),後者為基底變換 (change of basis)。不過,這僅是為了方便討論才如此區分,許多文獻並不必然採用本文的定義。

 
座標變換:設向量空間 \mathcal{V} 有兩組基底 \boldsymbol{\beta}=\{\mathbf{v}_1,\ldots,\mathbf{v}_n\}\boldsymbol{\gamma}=\{\mathbf{w}_1,\ldots,\mathbf{w}_n\}。對於 \mathbf{x}\in\mathcal{V},若 \mathbf{x}=c_1\mathbf{v}_1+\cdots+c_n\mathbf{v}_n=d_1\mathbf{w}_1+\cdots+d_n\mathbf{w}_n,問座標向量 [\mathbf{x}]_{\boldsymbol{\beta}}=(c_1,\ldots,c_n)^T[\mathbf{x}]_{\boldsymbol{\gamma}}=(d_1,\ldots,d_n)^T 有什麼關係?

基底變換:設 (c_1,\ldots,c_n) 為包含 n 個純量的有序集合,問向量 \mathbf{x}=c_1\mathbf{v}_1+\cdots+c_n\mathbf{v}_n\mathbf{y}=c_1\mathbf{w}_1+\cdots+c_n\mathbf{w}_n 的關係為何?

 
座標變換和基底變換的問題陳述均未提及線性變換,實際上,解決這兩個問題的最有效途徑就是線性變換理論。先回答基底變換問題,切入點在於建立兩組基底之間的聯繫。設線性變換 T:\mathcal{V}\rightarrow\mathcal{V} 定義由 \mathbf{v}_i\mathbf{w}_i 的基底變換,對於 i=1,\ldots,n

T(\mathbf{v}_i)=\mathbf{w}_i

利用這個關係式可以替換基底,再搭配線性變換基本性質便導出

\mathbf{y}=\displaystyle\sum_{i=1}^nc_i\mathbf{w}_i=\sum_{i=1}^nc_iT(\mathbf{v}_i)=T\left(\sum_{i=1}^nc_i\mathbf{v}_i\right)=T(\mathbf{x})

注意,基底變換 T 是可逆的,因為 \mathbf{y}=\sum_{i=1}^nc_i\mathbf{w}_i=\mathbf{0} 意味 c_1=\cdots=c_n=0,亦即 \mathbf{x}=\mathbf{0},得知 \mathrm{Ker}A=\{\mathbf{0}\}。所以,T^{-1} 即為 \mathbf{w}_i\mathbf{v}_i 的反向基底變換,\mathbf{v}_i=T^{-1}(\mathbf{w}_i),也就有 \mathbf{x}=T^{-1}(\mathbf{y})

 
運用線性變換理論也很容易解決向量 \mathbf{x} 於不同座標系統下的轉換問題,作法是先用線性組合來描述基底 \boldsymbol{\beta}\boldsymbol{\gamma} 之間的聯繫,再利用這個基底關係將 \mathbf{x} 於基底 \boldsymbol{\gamma} 的表達式轉換成參考 \boldsymbol{\beta} 的表達式。請特別注意,我們考慮的基底映射方向是由 \boldsymbol{\beta}\boldsymbol{\gamma},但座標向量的計算方向卻相反,稍後將會解釋其中原因。首先將 \mathbf{w}_jj=1,\ldots,n,以另一組基向量 \mathbf{v}_1,\ldots,\mathbf{v}_n 的線性組合表示:

\mathbf{w}_j=a_{1j}\mathbf{v}_1+a_{2j}\mathbf{v}_2+\cdots+a_{nj}\mathbf{v}_n

接著考慮 \mathbf{x}=d_1\mathbf{w}_1+\cdots+d_n\mathbf{w}_n,代入上面的基底關係式,再運用線性變換性質重組,可得

\mathbf{x}=\displaystyle\sum_{j=1}^nd_j\mathbf{w}_j=\sum_{j=1}^nd_j\left(\sum_{i=1}^na_{ij}\mathbf{v}_i\right)=\sum_{i=1}^n\left(\sum_{j=1}^na_{ij}d_j\right)\mathbf{v}_i

另一方面,\mathbf{x}=c_1\mathbf{v}_1+\cdots+c_n\mathbf{v}_n,因此得到

c_i=\displaystyle\sum_{j=1}^na_{ij}d_j

用下列矩陣乘法可以清楚表示兩組座標之間的轉換:

\begin{bmatrix}    c_1\\    c_2\\    \vdots\\    c_n    \end{bmatrix}=\begin{bmatrix}    a_{11}&a_{12}&\cdots&a_{1n}\\    a_{21}&a_{22}&\cdots&a_{2n}\\    \vdots&\vdots&\ddots&\vdots\\    a_{n1}&a_{n2}&\cdots&a_{nn}    \end{bmatrix}\begin{bmatrix}    d_1\\    d_2\\    \vdots\\    d_n    \end{bmatrix}

基底變換 Tn\times n 階座標變換矩陣 A=[a_{ij}] 之間存在著什麼關係?從先前使用的兩個關鍵方程式 \mathbf{w}_j=T(\mathbf{v}_j)\mathbf{w}_j=\sum_{i=1}^na_{ij}\mathbf{v}_i,得知

T(\mathbf{v}_j)=\displaystyle\sum_{i=1}^na_{ij}\mathbf{v}_i

矩陣 A 的第 j 行正是 T(\mathbf{v}_j) 參考基底 \boldsymbol{\beta}=\{\mathbf{v}_1,\ldots,\mathbf{v}_n\} 的座標向量:

\begin{bmatrix}  T(\mathbf{v}_j)\end{bmatrix}_{\boldsymbol{\beta}}=\begin{bmatrix}    a_{1j}\\    a_{2j}\\    \vdots\\    a_{nj}    \end{bmatrix}

換句話說,n\times n 階座標變換矩陣 A 即為基底變換 T 參考基底 \boldsymbol{\beta} 的表示矩陣 (見“線性變換表示矩陣”,關於參考不同基底的線性變換表示矩陣,請參閱“基底變換”)。基底變換 T 描述由基底 \boldsymbol{\beta}=\{\mathbf{v}_i\} 至基底 \boldsymbol{\gamma}=\{\mathbf{w}_i\} 的線性變換:

\mathbf{v}_i\xrightarrow[]{~T~}\mathbf{w}_i

座標變換矩陣 A 則提供了從座標向量 [\mathbf{x}]_{\boldsymbol{\gamma}} 至另一座標向量 [\mathbf{x}]_{\boldsymbol{\beta}} 的線性變換:

[\mathbf{x}]_{\boldsymbol{\gamma}}=\begin{bmatrix}    d_1\\    \vdots\\    d_n    \end{bmatrix}\xrightarrow[]{~A~}[\mathbf{x}]_{\boldsymbol{\beta}}=\begin{bmatrix}    c_1\\    \vdots\\    c_n    \end{bmatrix}

座標變換與基底變換構成了方向相反的一對一對應關係。這個奇特的現象可能令許多人感到困惑,下面我們舉一個例子說明詳細的演算步驟,希望能夠增進讀者對於基底變換與座標變換的理解。

 
\mathcal{P}_2 為二次函數 p(t)=p_0+p_1t+p_2t^2 構成的向量空間。考慮兩組基底

\begin{aligned}  \boldsymbol{\beta}&=\{1,1+t,1+2t+t^2\}\\  \boldsymbol{\gamma}&=\{1+t,1-t,t^2\}\end{aligned}

如果已知 p(t)=d_0(1+t)+d_1(1-t)+d_2(t^2),如何將 p(t) 參考基底 \boldsymbol{\beta} 的座標向量 [p]_{\boldsymbol{\beta}}=(c_0,c_1,c_2)d_0,d_1,d_2 表示?計算步驟如下。

步驟一:設基底 \boldsymbol{\beta} 至基底 \boldsymbol{\gamma} 的線性變換 T 滿足

\begin{aligned}  T(1)&=1+t\\  T(1+t)&=1-t\\  T(1+2t+t^2)&=t^2\end{aligned}

步驟二:寫出 T(1)T(1+t)T(1+2t+t^2) 參考基底 \boldsymbol{\beta}=\{1,1+t,1+2t+t^2\} 的線性組合,如下:

\begin{aligned}  T(1)=1+t&=a_{11}(1)+a_{21}(1+t)+a_{31}(1+2t+t^2)\\    T(1+t)=1-t&=a_{12}(1)+a_{22}(1+t)+a_{32}(1+2t+t^2)\\    T(1+2t+t^2)=t^2&=a_{13}(1)+a_{23}(1+t)+a_{33}(1+2t+t^2)\end{aligned}

比較等號兩邊係數,可解出由 \boldsymbol{\gamma}\boldsymbol{\beta} 的座標變換矩陣:

A=\left[\!\!\begin{array}{crr}    0&2&1\\    1&-1&-2\\    0&0&1    \end{array}\!\!\right]

步驟三:以矩陣乘法執行座標變換:

\begin{aligned}  \begin{bmatrix}    c_0\\    c_1\\    c_2    \end{bmatrix}&=\left[\!\!\begin{array}{crr}    0&2&1\\    1&-1&-2\\    0&0&1    \end{array}\!\!\right]\begin{bmatrix}    d_0\\    d_1\\    d_2    \end{bmatrix}=\begin{bmatrix}    2d_1+d_2\\    d_0-d_1-2d_2\\    d_2    \end{bmatrix}\end{aligned}

 
補註:為了更清楚展示座標變換和基底變換的「相反關係」,考慮向量空間 \mathbb{R}^n。令 \boldsymbol{\beta}=\{\mathbf{v}_1,\ldots,\mathbf{v}_n\}\boldsymbol{\gamma}=\{\mathbf{w}_1,\ldots,\mathbf{w}_n\}\mathbb{R}^n 的二組基底,且 T 為一 n\times n 階可逆矩陣使得 T\mathbf{v}_i=\mathbf{w}_ii=1,\ldots,n。將線性方程組表示為矩陣形式 TV=W,其中 V=\begin{bmatrix}  \mathbf{v}_1&\cdots&\mathbf{v}_n  \end{bmatrix}W=\begin{bmatrix}  \mathbf{w}_1&\cdots&\mathbf{w}_n  \end{bmatrix} 皆為 n\times n 階可逆矩陣,因為 \{\mathbf{v}_1,\ldots,\mathbf{v}_n\}\{\mathbf{w}_1,\ldots,\mathbf{w}_n\} 是線性獨立集。令 n\times n 階矩陣 A 代表 T 參考基底 \boldsymbol{\beta} 的表示矩陣,即有

T=VAV^{-1}

A=V^{-1}TV

\mathbf{x}\in\mathbb{R}^n,且 \begin{bmatrix}  \mathbf{x}  \end{bmatrix}_{\boldsymbol{\beta}}=(c_1,\ldots,c_n)^T\begin{bmatrix}  \mathbf{x}  \end{bmatrix}_{\boldsymbol{\gamma}}=(d_1,\ldots,d_n)^T,則

\mathbf{x}=c_1\mathbf{v}_1+\cdots+c_n\mathbf{v}_n=d_1\mathbf{w}_1+\cdots+d_n\mathbf{w}_n

此即

V\begin{bmatrix}  \mathbf{x}  \end{bmatrix}_{\boldsymbol{\beta}}=W\begin{bmatrix}  \mathbf{x}  \end{bmatrix}_{\boldsymbol{\gamma}}

所以,

\begin{bmatrix}  \mathbf{x}  \end{bmatrix}_{\boldsymbol{\beta}}=V^{-1}W\begin{bmatrix}  \mathbf{x}  \end{bmatrix}_{\boldsymbol{\gamma}}=V^{-1}TV\begin{bmatrix}  \mathbf{x}  \end{bmatrix}_{\boldsymbol{\gamma}}=A\begin{bmatrix}  \mathbf{x}  \end{bmatrix}_{\boldsymbol{\gamma}}

相關閱讀:
Advertisement
This entry was posted in 線性變換, 線性代數專欄 and tagged , , , , , . Bookmark the permalink.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s