本文的閱讀等級:初級
令 為幾何向量空間
的一個子空間,
,
。假設
為子空間
的一組已知基底。在一些應用時機,例如最小平方法,我們希望從
建構出另一組單範正交基底 (orthonormal basis)
,亦即每一
且
,
。底下先考慮實幾何向量空間,隨後再推廣至一般內積空間 (見“內積的定義”,“從幾何向量空間到函數空間”)。

Jørgen Pedersen Gram (1850-1916) From http://upload.wikimedia.org/wikipedia/commons/a/ab/Jorgen_Gram.jpg
Gram-Schmidt 正交化 (orthogonalization) 是基礎線性代數最常採用的方法,包含兩個部分:
- 正交化:對於
,由
的線性組合產生
,使得
為一個正交向量集,即
,
。
- 單位化:伸縮
的長度,將每一
替換為單位向量
,最後得到單範正交基底
。

Erhard Schmidt (1876-1959) From http://www-history.mcs.st-andrews.ac.uk/BigPictures/Schmidt_2.jpeg
下面我採用歸納法推導從給定的一組基底 產生一組正交基底
的 Gram-Schmidt 正交化過程。為便於說明,考慮簡單情況
。因為
包含線性獨立的基底向量,
,首先令
。
見圖一,將 正交投影至
所指的直線的分量扣除就得到
(參閱“正交投影──威力強大的線代工具”),算式如下:
,
圖一中綠色虛線投影向量為 。明顯地,
。上式的扣除量 (投影量) 還有另一種表達方式,因為
是一個純量,利用矩陣乘法結合律可得
,
其中 是將
向量投影至子空間 (直線)
的
階正交投影矩陣。
繼續下一個步驟,將 投影至
和
所擴張的子空間 (平面) 的分量扣除可得
。因為
正交於
(見圖二),
。
上式也有對應於正交投影矩陣的推導。設 ,將
至
的行空間
的投影量從
扣除即得
,計算式如下:
最後再單位化正交向量集 ,令
,
。
請注意,Gram-Schmidt 單位化過程顯示新基底向量 可以表示為舊基底向量
的線性組合。反過來說也成立,即
可寫為
的線性組合,如下:
如果進一步將單位化結果納入上式,直接替換 為
,就有下列形式:
利用 的單範正交性質,組合權重
即為
與
的內積,
,例如,
。
將前述方程組寫成矩陣形式即得到著名的 QR 分解式:
因為 且
,主對角元
亦可表示為
。
下面用一個例子來說明 Gram-Schmidt 正交化演算程序,考慮
。
矩陣 的行向量 (column vector) 就是
,下面用演算法形式記錄計算步驟。
1. 正交化:
2. 單位化:
合併結果便得到 矩陣:
,
但 矩陣的上三角元還需要耗費一些計算:
。
上述實矩陣的 QR 分解可以推廣至廣義內積空間 ,作法是把幾何內積算式
取代為廣義內積
,將數字
代回
,再加上一些「
」即可。設
階矩陣
包含
維線性獨立行向量
,其 QR 分解式為
,
其中 階矩陣
包含單範正交的行向量,
則為
階上三角矩陣,主對角元的計算如下:
,當
,
。
矩陣 的行空間與
的行空間相等,可知
為可逆矩陣,也就是說
的主對角元皆不為零。
利用 QR 分解可化簡線性方程 。將
代入前式,
。等號兩邊左乘
,利用
,就有
。
先算出 ,再使用反向迭代即能解出
。讀者或許納悶:以高斯消去法解線性方程比 QR 分解簡單容易,何須如此費事呢?從表面上看,似乎如此。然而,在一些特定的問題中,QR 分解的精確度比高斯消去法高;另外,QR 分解有它自己的典型應用──解最小平方法。當方程式
無解時,我們可以考慮它的最小平方近似解:
。
問題轉而求正規方程 的解 (見“從線性變換解釋最小平方近似”)。若
,即
階矩陣
有線性獨立的行向量,將
代入正規方程式,等號左邊是
,等號右邊是
。因為
是可逆的,
左乘
,即得等價的正規方程
。
這與之前化簡線性方程得到的式子相同。
在將 x_3 寫成 y_1, y_2 和 y_3 的線性組合那一段,
y_3 的係數好像有打錯字。
謝謝,已訂正。
明顯地,\mathbf{y}_1\perp\mathbf{y}_2。上式的扣除量 (投影量) 還有另一種表達方式,因為 \frac{\mathbf{y}_1^T\mathbf{x}_2}{\mathbf{y}_1^T\mathbf{y}_1} 是一個純量,利用矩陣乘法結合律可得
\begin{aligned} \displaystyle\frac{\mathbf{y}_1^T\mathbf{x}_2}{\mathbf{y}_1^T\mathbf{y}_1}\mathbf{y}_1&=\mathbf{y}_1\frac{\mathbf{y}_1^T\mathbf{x}_2}{\mathbf{y}_1^T\mathbf{y}_1}=\frac{1}{\mathbf{y}_1^T\mathbf{y}_1}\mathbf{y}_1\mathbf{y}_1^T\mathbf{x}_2=\frac{\mathbf{y}_1\mathbf{y}_1^T}{\mathbf{y}_1^T\mathbf{y}_1}\mathbf{x}_2\end{aligned}
第三個式子的分母 y^T 和 y 忘了加上下標 “1”
抱歉

是
謝謝指正,已修訂。
老师好,r(i,i) 推导的第二等号没懂?
This is my two cents, we start from:
x1 = y1;
x2 = x2 of y1 + y2
x3 = x3 of y1 + x3 of y2 + y3
As you can see, x is y when they are representing the same vector;
that is how we can have x(i)=y(i);