本文的閱讀等級:高級
線性代數學習者或多或少可能曾經感到一種莫名的疑惑:針對一個特定主題,既使我們明白符號的定義,也瞭解如何執行計算程序,但卻苦於不能清楚掌握該主題的深層涵義。我相信最有效的解惑處方是選擇適當的應用來釋疑,一方面藉由附著於實例的情境闡述符號所代表的概念,另一方面透過回答一連串的問題引導我們理解計算程序背後的故事。本文就以奇異值分解為例,借用它在資訊檢索與文本搜尋的應用來說明矩陣的奇異值分解的功能與意義。繼續閱讀之前,請讀者先參考背景文章“奇異值分解 (SVD)”。
隱含語義索引 (latent semantic indexing),簡稱 LSI,是潛在語義學應用於資訊檢索的一項技術,目的是探討隱藏在字詞背後的某種關係,這種關係並非以詞典中的定義為基礎,而是參考字詞的使用環境。LSI 的運作理論建基於奇異值分解,也就是以向量空間為分析模型,利用基底來呈現語料庫中不同字詞以及文件之間的關係。
LSI 以字詞—文件矩陣 (term-document matrix) 表示字詞與文件之間的關聯,習慣以列 (row) 代表字詞 (term),以行 (column) 代表文件 (document)。考慮一給定的語料庫,字詞記為 ,
,文件記為
,
。設
為
階字詞—文件矩陣,
代表字詞
與文件
的相關權重值。第一個問題是如何從給定的
個文件以及選定的
個字詞得到字詞—文件矩陣
?
TF-IDF (term frequency-inverse document frequency) 是一種常用於資訊檢索的權重計算方法。詞頻 (term frequency,TF) 代表局部權重,即某字詞在一份特定文件的重要性,逆向文件頻率 (inverse document frequency,IDF) 代表全域權重,即某字詞在整個語料庫中的普遍重要性。對於給定文件 ,TF 是字詞
在該文件中出現的次數,以
表示。為排除文件長度的影響,我們將 TF 正規化:
上式中分母是文件 中所有字詞出現的次數總和。
一般來說,字詞的普遍重要性隨著它在語料庫中出現的頻率成反比;例如,字詞「我」的普遍重要性遠比「甜點」要低。針對字詞 ,IDF 定義為總文件數 (
) 和包含字詞
的文件數目 (記為
) 比值的對數值,如下:
上式中加入常數 的目的是當字詞
出現於語料庫裡的每一份文件時,亦即
,IDF 仍保有一個基本量。TF-IDF 定義為 TF 和 IDF 的乘積:
TF-IDF 的意義是字詞相對一份文件的重要性隨著它在該文件中出現的頻率增加,但隨著它在語料庫中出現的頻率減少。
考慮下面這個小型語料庫,稱為「我的語料庫」,它包含選自本網站的 份文件:“特殊矩陣 (1):冪零矩陣”、“特殊矩陣 (2):正規矩陣”、“特殊矩陣 (3):么正矩陣(酉矩陣)”、“特殊矩陣 (4):Householder 矩陣”和“特殊矩陣 (5):冪等矩陣”。我們挑選的
個字詞依序是:「秩」、「行列式」、「行空間」、「正交」、「特徵值」、「對稱」、「對角化」、「投影」、「相似」和「正定」。表一整理了「我的語料庫」裡每個字詞於各文件中出現的次數 (
),每份文件的字詞總數 (
),以及包含某字詞的文件數目 (
)。字詞「正定」並未出現於任何文件中,我們可以將它由字詞—文件關聯矩陣中刪除。從表一的的統計資料可計算出 TF-IDF,「我的語料庫」的
階字詞—文件關聯矩陣如下:
接下來是線性代數的工作,假設 ,我們計算字詞—文件矩陣
的「瘦」奇異值分解 (SVD):
其中 階矩陣
與
階矩陣
分別滿足
和
,且
,主對角元
為非零奇異值。寫出
和
,其中
組成一個單範正交 (orthonormal) 向量集,故可當作字詞空間的基底,
也組成一個單範正交集,可作為文件空間的基底。奇異值分解也可以用
個秩-1 (rank-one) 矩陣之和的形式表示:
奇異值 反映了字詞—文件矩陣
裡隱藏的
個獨立的概念強度。對應第
個概念,
代表構成此概念的
個字詞權重,
代表
個文件包含此概念的權重,而
則表示此概念的字詞—文件關聯矩陣。因此,
稱為字詞—概念矩陣,
稱為概念—文件矩陣。
利用本網站提供的友好連結 Online Matrix Calculator 計算上述「我的語料庫」的字詞—文件矩陣 的奇異值分解,結果如下 (
,
):
得到了字詞—文件矩陣的 SVD 後,LSI 採用降低維度的近似作法,僅保留前面數值較大的 個奇異值,原矩陣
因此近似於
上式中 是
階,
是
階,
是
階。採用低維矩陣近似的作法有兩個主要原因,第一是減少計算量與儲存量,第二是去除雜音。雜音的強度較主要訊息微弱,省略較小的奇異值雖然遺失部分訊息,但遺失的訊息多屬於雜訊,所以用低維近似反而能夠提高資訊檢索的效能。以下為方便說明,「我的語料庫」僅保留
個獨立概念 (
),低維矩陣
,
和
分別是
利用字詞—文件矩陣的 SVD 形式可回答與字詞分類、文件分類和資訊檢索密切相關的問題:
- 文件的相似度問題:文件
和
有多相似?
- 字詞的相似度問題:字詞
和
有多相似?
- 文件查詢問題:給出若干查詢字詞,哪些是最相關聯的文件?
透過比對文件所隱含的概念可度量文件之間的相似度。考慮特定文件 ,該文件的相關字詞向量近似於
的第
行,也就是
與
的第
行乘積;換句話說,以
的行向量為基底,文件
的座標向量就是
的第
行。下圖為「我的語料庫」中
份文件的座標散布圖 (由
的行向量繪得)。
下一個問題是從文件的座標向量判斷兩份文件之間的相似性。餘弦相似性 (cosine similarity) 是一種常用的方法,文件 和
的相似度定義為其座標向量夾角的餘弦,因此兩座標向量的夾角愈小其相似度愈高。計算方式是先將
的每個行向量予以正規化,使各行向量長度為
,記為
。兩文件的餘弦相似性等於
裡兩行向量的內積,「我的語料庫」之文件相似度矩陣
如下:
檢視文件相似度矩陣並配合座標散布圖,「我的語料庫」裡的文件分為二類:第一類包含文件一、二、三和四,第二類包含文件五。
仿照文件相似度的計算程序,字詞之間的相似度也可經由比對字詞所隱含的概念來度量,將 的列向量予以正規化,記為
,字詞相似度矩陣為
,即
由字詞相似度矩陣推知「我的語料庫」裡的字詞可區分為二類,第一類包含「秩」、「行空間」、「投影」,第二類包含「行列式」、「正交」、「特徵值」、「對稱」、「對角化」、「相似」。
最後我們回答資訊檢索問題:給出若干查詢字詞,哪些是最相關聯的文件?方法很簡單,我們可以將查詢字詞集合視為一份虛擬文件,將此虛擬文件的座標向量求出,再以類似文件之間相似度的比對方式即可找出符合的文件。例如,假定輸入查詢關鍵字詞「對稱」、「正交」和「對角化」,此虛擬文件的查詢字詞向量為
令查詢虛擬文件參考新基底 (即 的行向量集合) 的座標向量為
,就有
因為 是可逆的,等號兩端左乘
就得到
代入數值計算出
下圖為查詢虛擬文件與 份文件的座標散布圖,查詢虛擬文件與語料庫中
份文件的餘弦相似性依序為
結果顯示在「我的語料庫」中,“特殊矩陣 (1):冪零矩陣”最符合給定的查詢意圖。
本文的目的是通過 SVD 在 LSI 的應用認識如何解讀矩陣的奇異值分解,並非強調 LSI 在資訊檢索與文本搜尋的效能,有興趣進一步瞭解 LSI 效能和限制的讀者,請參見維基百科 http://en.wikipedia.org/wiki/Latent_semantic_indexing ,關於 TF-IDF 的介紹,請見 http://en.wikipedia.org/wiki/Tf%E2%80%93idf。此外,對於查詢網頁排名有興趣的讀者,建議閱讀“Google 搜尋引擎使用的矩陣運算”。
後記:
交大電機系的兩位同仁──林源倍教授和楊谷洋教授──不約而同地懷疑我撰寫「無關線代」雜文的興趣遠大於那些繞著線性代數打轉的「主題專欄」。為澄清誤會,我決心投入一整個工作天完成這篇介紹 SVD 實務應用的專文,藉此表明我對線性代數理論與應用始終如一未曾改變的熱愛。
T稱為字詞—概念矩陣
D稱為概念—文件矩陣
請問老師 如何知道T是字詞概念矩陣 D是文件矩陣
A是9×5矩陣,由9個字詞在5份文件的詞頻構成,A的行空間C(A)屬於R^9,列空間C(A^T)屬於 R^5。A的SVD:
告訴我們以下訊息:
rank(A)=非零奇異值數目,它代表獨立的概念數,奇異值
則代表每個概念的強度。
T的行向量(t1,t2,…,t5)是行空間C(A)基底,行向量t_i告訴我們第i個概念對應哪些字詞分配,譬如說t1中數值較大的元是0.512和0.698即知第一個概念包含最主要的字詞是「正交」和「投影」,所以我們稱T是字詞-概念矩陣。
同理D的行向量(d1,…,d5)是列空間C(A^T)基底,故D是文件-概念矩陣(或者說D^T是概念-文件矩陣)。
教授你好
我不懂T的行向量(t1,t2,…,t5)是行空間C(A)基底
和行向量t_i告訴我們第i個概念對應哪些字詞分配
中間的關聯性要怎麼看?
我不確定這是不是你要的答案:t1是組成第1個概念的字詞成分,數值(絕對值)越大則該字詞所佔的權重越大。假設一個向量表示長方體的(有號)長寬高,譬如 (0.987, 0.012, -0.893),這是甚麼樣子的長方體?
周老師您好,本文範例中字詞-文字矩陣輸入文中所提供的online matrix calculator
實際運算出來的T矩陣如下:
0.058 0.053 -0.008 -0.003 0.001
0.117 -0.127 0.712 0.306 0.402
0.258 0.127 0.303 0.133 0.190
0.512 -0.459 -0.309 0.197 -0.095
0.282 -0.282 0.356 -0.295 -0.640
0.163 -0.226 -0.059 -0.782 0.548
0.234 -0.451 -0.222 0.333 0.222
0.698 0.638 -0.100 -0.031 0.010
0.084 -0.115 0.340 -0.199 -0.185
跟本文產生出來的結果不同,例如第T[1,1],本文產生的結果是,-0.058但是online calculator產生的結果是0.058
以下是我用Sparse Matrix計算出來的結果
0.058 0.053 0.008 0.003 0.001
0.117 -0.127 -0.712 -0.306 0.402
0.258 0.127 -0.303 -0.133 0.190
0.512 -0.459 0.309 -0.197 -0.095
0.282 -0.282 -0.356 0.295 -0.640
0.163 -0.226 0.059 0.782 0.548
0.234 -0.451 0.222 -0.333 0.222
0.698 0.638 0.100 0.031 0.010
0.084 -0.115 -0.340 0.199 -0.185
T[1,4]文中產生的結果是-0.003 online matrix calculator -0.003我的結果是0.003
我很好奇的是,數字都一樣,但是結果有些會正負號相反,想請問老師,這是因為SVD有不同的解,還是有其中有一個是計算錯誤?
哪一個是正確的?
我仔細看了一下老師的文章,原來是沒有唯一解的原因。抱歉,在沒有看清老師提供的文章前,就先問問題。
不要緊,奇異值分解是相當抽象的概念,全面理解需要各種努力。
老師想請問您,
這邊的文件作標的橫軸與縱軸,
是不是就是這些文件最強的兩項特徵了呢?
精確的說法是變異最大的特徵,這裡的特徵是指所有變數的線性變換。
BRAVO!
原來奇異值分解可以這樣應用,大開眼界了!
想請問D^T是"概念—文件"矩陣
其根據SVD分解,是按照eigenvalue大小由左至右排出的原矩陣特徵向量建構而成
這樣的順序跟原本term i 及term j的對應順序會一樣嗎?
為什麼呢?
如果順序一樣那我不太懂按照奇異值進行的排序為何不會影響原本term在矩陣上的順序
可是如果順序不一樣,那該怎麼找到對應的位置去計算term相似度呢?
還是我的理解有錯誤..
對於SVD實在不太理解
老師你好:
請問這篇內容如果用主成分分析或因素分析加以詮釋的話應該是如何呢?
在拜讀老師其他文章後覺得好像有關聯卻又想不太清楚
PCA 與 LSI 雖然都引用SVD,但兩者的概念與目的不同,詳見下文:
https://irthoughts.wordpress.com/2007/05/05/pca-is-not-lsi/
老師您好,對於最後面虛擬文件的座標的問題,我實際計算了一下,但出現的結果有些差異。如下:
q = T Sig [q], [q] = Sig^-1 * T^T * q
Sig^-1 * T^T =
-0.039 -0.078 -0.172 -0.341 -0.188 -0.109 -0.156 -0.466 -0.056
-0.046 0.110 -0.109 0.396 0.243 0.195 0.389 -0.550 0.099
q = [0; 0; 0; 1; 0; 1; 1; 0; 0]
T * Sig * q =
-0.606
0.980
由於計算器提供了solveLinearEquation的方法,用 AX=B 的方法求 [q], T * Sig [q] = q,
T * Sig = A =
-0.087 -0.062
-0.175 0.148
-0.387 -0.147
-0.767 0.533
-0.422 0.327
-0.244 0.262
-0.351 0.523
-1.047 -0.740
-0.126 0.134
B = q = [0; 0; 0; 1; 0; 1; 1; 0; 0]
X =
-0.606
0.979
這兩個結果幾乎差不多,應該是小數點的問題,但該解與文章上述的不同,不知道是哪裡算錯了?
我用的計算器也是本文中付的連結 Online Matrix Calculator
請指教 m(_ _)m