新四季網

機器學習用什麼線性代數教程(機器學習與線性代數簡明教程)

2023-05-09 07:13:10 1

機器學習與線性代數簡明教程(上)

線性代數在機器學習(ML)和深度學習(DL)中是必不可少的。即使我們努力為許多理論創建精確的機器學習模型,線性代數仍然是這些研究中的重要工具。

正交矩陣

如果方形矩陣a的所有列/行都是正交的,那麼a就是一個正交矩陣

如果Q由q1到qn列組成,它們彼此正交,如果i = j,內積⟨ qᵢ,qⱼ ⟩等於1,否則為0。因此,QᵀQ= I。方程式Qᵀ= Q-1非常重要。求逆通常是困難的,但對於正交矩陣就不是這樣了。因此,如果我們能將一個矩陣分解成正交矩陣,那將是一個好消息。對於對稱矩陣,我們可以分解它為Q個Λ Q ᵀ,其中Q是一個正交矩陣,Λ是對角矩陣。

奇異和非奇異矩陣

讓我們回顧一下奇異n×n矩陣A的一些屬性:

它不可逆轉。它的行列式等於零。列/行是線性相關的。它的pivots數小於n,也就是說,在行消去之後,它的變量至少有一行是0。它的特徵值等於零。根據特徵值定義,如果特徵值λ為零,則det(A) = 0,因此,它是奇異的。(我們稍後會討論特徵值。)

讓我們總結一下奇異和非奇異n×n矩陣之間的區別。

基(Basis)

向量空間的一組基是一系列張成這個空間的線性無關的向量。不同的基可以有不同的向量。但是所有的基都有相同數量的向量。一個子空間的維數等於張成這個子空間的線性無關向量的個數。在執行行消去之後,所有的pivot行/列都可以用來構成a的行/列空間的一組基。Ax=0的n - r特解可以構成n (a)的零空間的一組基。

消去,置換,旋轉,反射矩陣

在線性代數中,我們可以使用矩陣乘法來定義一些矩陣運算。行消去可以被視為將矩陣與消去矩陣相乘。

置換矩陣,交換矩陣中的行。對於每個行和列,它只允許一個元素等於1,其他元素必須為0。

旋轉矩陣的形式為

反射矩陣的形式為

這就產生了沿u的反射。

所有置換,旋轉,反射矩陣都是正交矩陣。它的逆矩陣等於它的轉置,P -1 =Pᵀ。

LU分解

如所討論的,高斯消元中的步驟可以表示為矩陣乘法。例如,在下面的3×3矩陣A中,我們使用矩陣E 21來使用第1行消去第2行的前導元素。它的結果等於U,一個上三角矩陣我們用回代來計算結果。

Eᵢⱼ和它們的組合E都是下三角矩陣。我們將E形成L(L = E -1)。L也是下三角矩陣。LU分解就是把A分解成下三角矩陣L和上三角矩陣U。

例,

或者,有時我們希望L和U的對角元素都是1。

其中D是一個對角矩陣,它的對角元素包含了pivots。

這是我們第一個矩陣分解的例子。它們在線性代數中起著非常重要的作用。例如,高斯消元可以被視為矩陣分解過程。

矩陣乘法表示

為了計算矩陣乘法(C ^ = AB),我們計算C元素ᵢⱼ作為A的rowiB的columnⱼ的點積。

AB的乘法結果的列i是A與相應的列i (B)的乘積。

或者,乘法結果的第i行是A的第i行與B的乘法。

或者,乘法的結果是A中的第i列和B中的第i行使用外積的乘積的和。

以下是一個示例,右下方的每個項都在rank 1。

回想起來,我們也可以將矩陣和向量的乘法視為

投影

在下圖中,我們將向量b投影到a上。 投影向量p的長度x等於內積aᵀb。 並且p等於

e垂直於p並將p和b連接在一起。在一種情況下,投影試圖最小化這個可以看作誤差向量的向量e。現在來看看一個更難的問題。對於一個多維空間,我們如何將一個向量投影到a的列空間上(空間由Ax張成)?讓我們用xᵢ和A(aᵢ)的基來表示p

我們將用投影矩陣P來建模這個投影

其中P和p可以從A算出

證明

因為p正交於e,基中的每個向量也垂直於e。我們可以將這些條件(如下圖所示)改寫成矩陣形式。

我們可以解這個等式

注意:我們可以解逆(AᵀA)-1,其中A(AᵀA)-1Aᵀ變為A A -1(Aᵀ)-1Aᵀ,即I。因此,p = b。這是錯誤的,因為只有當A是可逆的時,(AᵀA)-1等於A -1(Aᵀ)-1。即使對於非方形矩陣,A也是不可逆的。

此外,P = P²= Pⁿ——因為列空間上的投影向量,其投影等於本身。

最小二乘方誤差

通常,不可能找到Ax = b的精確解。相反,我們希望找到最適合數據的x,例如,我們希望最小二乘方誤差

上面的等式與我們的預測具有相同的目標。Recall

x̂將實現我們的解

因此,我們可以使用上面的等式來計算x(使用b和A)。然而,在機器學習中,數據是有噪聲的。 測量或觀察到的b具有噪聲。

但是,如果我們知道b是如何分布的,以及成分是如何相關的,我們可以將這些信息轉換為對x進行更好的估計。協方差和方差定義為

方差衡量屬性(變量)如何變化,而協方差是兩個屬性如何變化的方式。下面的左圖是一般協方差矩陣。如果所有屬性彼此無關,則所有非對角元素將為零,如下面的中間圖所示。當這些數據也標準化時,就會出現右圖。

配備b的協方差矩陣V,我們可以解決x

在前面的等式中,對於每個維度(屬性),最小二乘方誤差被相等地計數。用新的等式,V - 1項標準化數據。換句話說,方差較小的特定維度上的誤差對加權最小平方誤差的權重更大,而該維度上的誤差的權重更大。新方程將為x提供更好的值。此外,計算出的x的方差將減小到

讓我們再次仔細檢查這個等式。

如果V = I,它會回到上一個等式。即,當所有變量都標準化且不相關時,兩個方程都是相同的。

Gram-Schmidt過程

如前所述,我們喜歡正交矩陣。對於給定的矩陣a,列向量不太可能是正交的。Gram-Schmidt對角化幫助我們找到一組基它張成a的相同列空間。

假設我們有一個矩陣A由a,b和c列組成。我們如何找到張成A的相同列空間的正交向量q 1,q 2和q 3 。

這樣我們就可以將A分解成A = QR。 我們從q 1'作為a。 然後q 2'等於b減去沿q 1'的b的投影。 接下來,q 3等於c減去沿q 1和q 2的c的投影。 簡而言之,我們嘗試在形成正交向量的前一個方向上取出投影部分。

完成後,我們將q 1',q 2'和q 3' 歸一化,形成單位長度q 1,q 2和q 3。我們可以將a,b,c重寫為

因此,A可以分解成QR,R等於

矩陣中的二次型方程

二次方程可以寫成:

二次方程的矩陣形式是:

對於三個變量:

這種表示很重要,因為機器學習(ML)中的誤差,如均方誤差,通常表示為二次方程。

行列式

3×3矩陣的行列式是:

該定義可以擴展為遞歸地計算n×n矩陣的行列式。或者,它可以在視覺上計算為:

屬性

如果A的行列式的絕對值大於1,則Ax會擴展輸出空間。如果它介於0和1之間,則會縮小空間。這對於理解系統的穩定性非常重要。

範數

深度學習使用範數來計算誤差或執行正則化。這裡有不同類型的範數。

L1範數(曼哈頓距離):

L2範數

LP-範數

Max-norm

Frobenius範數

比較L1和L2範數

與l1 -範數相比,l2 -範數對大值誤差模型的變化更為顯著。此外,L1-norm增加了模型權重的稀疏性。這是許多機器學習問題所需要的。然而,在L2範數中,梯度變化在0附近更平滑。因此,隨著梯度的逐漸變化,l2 -範數訓練更加穩定。這使得L2-norm在一般情況下更受歡迎。

矩陣範數

矩陣的範數是任何向量x的最大增長因子。

這與約束x具有單位長度相同。

規範可以計算為:

如果矩陣是正定的,則​​範數是A的最大特徵值。如果矩陣是對稱的,我們取特徵值的絕對值並選擇最大值。

否則,它是A的最大奇異值。即AᵀA的最大特徵值的平方根。瑞利熵(Rayleigh quotient)

找到A的矩陣範數與查找下面瑞利熵的最大值相同。

讓我們用內積重寫瑞利熵。

我們用上面的Qx代替x。

因此Rayleigh熵是AᵀA的特徵值的加權平均值。由於加權平均值小於或等於其最大值,

我們經常按降序重新調整λ。 因此λ1保持最大的特徵值。 因此,A的範數是AᵀA的最大特徵值的根(A的奇異值σ1)。

對於對稱矩陣S,

條件數

在線性代數中,我們使用條件數來跟蹤輸出對輸入的誤差的敏感程度。消去方法的準確性由條件數反映

跡是A的對角線元素的總和。它可用於驗證特徵值。

屬性

相似矩陣

如果,兩個矩陣A和B相似(A ~ B)

對於任意可逆矩陣P,給定A和B, P有很多解,從概念上講,在線性變換的背景下,P是由x到x』的基變換的矩陣。。

如果我們對x應用變換A,則x'基上的相應變換是P-1AP。物理定律不應隨著參考系(基)的變化而改變。

相似矩陣:

具有相同的特徵值。相同的行列式相同的秩單數或非單數。

如果A是非奇異的,矩陣可以對角化為對角矩陣Λ(矩陣中的所有非對角元素都是零)。

這和矩陣相似度的定義是一樣的。因此,A相似於對角矩陣Λ。在實踐中,如果這個矩陣像Λ一樣簡單,我們可以很容易地找到原始矩陣的特徵值或行列式。

Jordan形矩陣

Jordan block可以有很多大小, 但是它的對角元素包含一個特徵值,而特徵值右邊的元素必須是一個。

我們可以將矩陣分解為Jordan形,我們使用它的特徵值來創建不同大小的Jordan block。

機器學習與線性代數簡明教程(上)

,
同类文章
葬禮的夢想

葬禮的夢想

夢見葬禮,我得到了這個夢想,五個要素的五個要素,水火只好,主要名字在外面,職業生涯良好,一切都應該對待他人治療誠意,由於小,吉利的冬天夢想,秋天的夢是不吉利的
找到手機是什麼意思?

找到手機是什麼意思?

找到手機是什麼意思?五次選舉的五個要素是兩名士兵的跡象。與他溝通很好。這是非常財富,它擅長運作,職業是仙人的標誌。單身男人有這個夢想,主要生活可以有人幫忙
我不怎麼想?

我不怎麼想?

我做了什麼意味著看到米飯烹飪?我得到了這個夢想,五線的主要土壤,但是Tu Ke水是錢的跡象,職業生涯更加真誠。他真誠地誠實。這是豐富的,這是夏瑞的巨星
夢想你的意思是什麼?

夢想你的意思是什麼?

你是什​​麼意思夢想的夢想?夢想,主要木材的五個要素,水的跡象,主營業務,主營業務,案子應該抓住魅力,不能疏忽,春天夢想的吉利夢想夏天的夢想不幸。詢問學者夢想
拯救夢想

拯救夢想

拯救夢想什麼意思?你夢想著拯救人嗎?拯救人們的夢想有一個現實,也有夢想的主觀想像力,請參閱週宮官方網站拯救人民夢想的詳細解釋。夢想著敵人被拯救出來
2022愛方向和生日是在[質量個性]中

2022愛方向和生日是在[質量個性]中

[救生員]有人說,在出生88天之前,胎兒已經知道哪天的出生,如何有優質的個性,將走在什麼樣的愛情之旅,將與生活生活有什么生活。今天
夢想切割剪裁

夢想切割剪裁

夢想切割剪裁什麼意思?你夢想切你的手是好的嗎?夢想切割手工切割手有一個真正的影響和反應,也有夢想的主觀想像力。請參閱官方網站夢想的細節,以削減手
夢想著親人死了

夢想著親人死了

夢想著親人死了什麼意思?你夢想夢想你的親人死嗎?夢想有一個現實的影響和反應,還有夢想的主觀想像力,請參閱夢想世界夢想死亡的親屬的詳細解釋
夢想搶劫

夢想搶劫

夢想搶劫什麼意思?你夢想搶劫嗎?夢想著搶劫有一個現實的影響和反應,也有夢想的主觀想像力,請參閱週恭吉夢官方網站的詳細解釋。夢想搶劫
夢想缺乏缺乏紊亂

夢想缺乏缺乏紊亂

夢想缺乏缺乏紊亂什麼意思?你夢想缺乏異常藥物嗎?夢想缺乏現實世界的影響和現實,還有夢想的主觀想像,請看官方網站的夢想組織缺乏異常藥物。我覺得有些東西缺失了