tft每日頭條

 > 生活

 > 機器學習之數學基礎

機器學習之數學基礎

生活 更新时间:2024-08-30 03:29:46

常見函數

常函數:

機器學習之數學基礎(機器學習-數學知識大全)1

一次函數:

機器學習之數學基礎(機器學習-數學知識大全)2

二次函數:

機器學習之數學基礎(機器學習-數學知識大全)3

幂函數:

機器學習之數學基礎(機器學習-數學知識大全)4

指數函數:

機器學習之數學基礎(機器學習-數學知識大全)5

,a的取值範圍為: a>0&a≠1

對數函數:

機器學習之數學基礎(機器學習-數學知識大全)6

, a的取值範圍為: a>0&a≠1

機器學習之數學基礎(機器學習-數學知識大全)7

機器學習之數學基礎(機器學習-數學知識大全)8

對數的運算

機器學習之數學基礎(機器學習-數學知識大全)9

機器學習之數學基礎(機器學習-數學知識大全)10

指數的運算

機器學習之數學基礎(機器學習-數學知識大全)11

機器學習之數學基礎(機器學習-數學知識大全)12

導數

一個函數在某一點的導數描述了這個函數在這一點附近的變化率,也可以認為是函數在某一點的導數就是該函數所代表的曲線在這一點的切線斜率。導數值越大,表示函數在該點處的變化越大。定義:當函數y=f(x)在自變量x=x0上産生一個增量Δx時,函數輸出值的增量Δy和自變量增量Δx之間的比值在Δx趨近與0的時候存在極限值a,那麼a即為函數在x0處的導數值。

機器學習之數學基礎(機器學習-數學知識大全)13

機器學習之數學基礎(機器學習-數學知識大全)14

常見的導函數

機器學習之數學基礎(機器學習-數學知識大全)15

偏導數

在一個多變量的函數中,偏導數就是關于其中一個變量的導數而保持其它變量恒定不變。假定二元函數z=f(x,y),點(x0,y0)是其定義域内的一個點,将y固定在y0上,而x在x0上增量Δx,相應的函數z有增量Δz=f(x0 Δx, y0) - f(x0,y0);Δz和Δx的比值當Δx的值趨近于0的時候,如果極限存在,那麼此極限值稱為函數z=f(x,y)在處對x的偏導數(partial derivative)

機器學習之數學基礎(機器學習-數學知識大全)16

z=x2 xy2 在(2,1)處的對x的偏導數=?

梯度

梯度:梯度是一個向量,表示某一函數在該點處的方向導數沿着該方向取的最大值,即函數在該點處沿着該方向變化最快,變化率最大(即該梯度向量的模)

機器學習之數學基礎(機器學習-數學知識大全)17

機器學習之數學基礎(機器學習-數學知識大全)18

泰勒公式

Taylor(泰勒)公式是用一個函數在某點的信息描述其附近取值的公式。如果函數足夠平滑,在已知函數在某一點的各階導數值的情況下,Taylor公式可以利用這些導數值來做系數構建一個多項式近似函數在這一點的鄰域中的值。

若函數f(x)在包含x0的某個閉區間[a,b]上具有n階函數,且在開區間(a,b)上具有n 1階函數,則對閉區間[a,b]上任意一點x,有Taylor公式如下:<f(n)(x)表示f(x)的n階導數,Rn(x)是Taylor公式的餘項,是(x-x0)n的高階無窮小

簡言之:利用x0點的導數信息來近似逼近該點鄰域的原函數。

機器學習之數學基礎(機器學習-數學知識大全)19

機器學習之數學基礎(機器學習-數學知識大全)20

Taylor公式的應用

機器學習之數學基礎(機器學習-數學知識大全)21

機器學習之數學基礎(機器學習-數學知識大全)22

古典概率

概率是以假設為基礎的,即假定随機現象所發生的事件是有限的、互不相容的, 而且每個基本事件發生的可能性相等。一般來講,如果在全部可能出現的基本事 件範圍内構成事件A的基本事件有a個,不構成事件A的有b個,那麼事件A出現的 概率為:

機器學習之數學基礎(機器學習-數學知識大全)23

概率體現的是随機事件A發生可能的大小度量(數值)

聯合概率

表示兩個事件共同發生的概率,事件A和事件B的共同概率記作:P(AB)、P(A,B) 或者P(A∩B),讀作“事件A和事件B同時發生的概率”

機器學習之數學基礎(機器學習-數學知識大全)24

條件概率

事件A在另外一個事件B已經發生的條件下的 發生概率叫做條件概率,表示為P(A|B),讀作 “在B條件下A發生的概率“ ,一般情況下 P(A|B)≠P(A),而且條件概率具有三個特性:

非負性,可列性,可加性

機器學習之數學基礎(機器學習-數學知識大全)25

機器學習之數學基礎(機器學習-數學知識大全)26

将條件概率公式由兩個事件推廣到任意有窮多個事件時,可以得到如下公式,假 設A1,A2,....,An為n個任意事件(n≥2),而且P(A1A2 ...An )>0,則:

機器學習之數學基礎(機器學習-數學知識大全)27

全概率公式

樣本空間Ω有一組事件A1、A2 ...An , 如果事件組滿 足下列兩個條件,那麼事件組稱為樣本空間的一個 劃分:

機器學習之數學基礎(機器學習-數學知識大全)28

設事件{Aj}是樣本空間Ω的一個劃分,且P(Ai)>0, 那麼對于任意事件B,全概率公式為:

機器學習之數學基礎(機器學習-數學知識大全)29

機器學習之數學基礎(機器學習-數學知識大全)30

貝葉斯公式

設A1、A2 ...An是樣本空間Ω的一個劃分,如果 對任意事件B而言,有P(B)>0,那麼:

機器學習之數學基礎(機器學習-數學知識大全)31

貝葉斯的推導

機器學習之數學基礎(機器學習-數學知識大全)32

機器學習之數學基礎(機器學習-數學知識大全)33

機器學習之數學基礎(機器學習-數學知識大全)34

期望

期望(mean):也就是均值,是概率加權下的“平均值” ,是每次可能結果的概率乘 以其結果的總和,反映的随機變量量平均取值大小。常用符号μ表示 :

連續性數據:

機器學習之數學基礎(機器學習-數學知識大全)35

離散性數據:

機器學習之數學基礎(機器學習-數學知識大全)36

機器學習之數學基礎(機器學習-數學知識大全)37

機器學習之數學基礎(機器學習-數學知識大全)38

假設C為一個常數,X和Y實兩個随機變量,那麼期望有一下性質:

機器學習之數學基礎(機器學習-數學知識大全)39

機器學習之數學基礎(機器學習-數學知識大全)41

機器學習之數學基礎(機器學習-數學知識大全)42

假設C為一個常數,X和Y實兩個随機變量,那麼方差有一下性質

機器學習之數學基礎(機器學習-數學知識大全)43

機器學習之數學基礎(機器學習-數學知識大全)45

機器學習之數學基礎(機器學習-數學知識大全)46

協方差

協方差常用于衡量兩個變量的總體誤差;當兩個變量相同的情況下,協方差其實 就是方差。

如果X和Y是統計獨立的,那麼二者之間的協方差為零。但是如果協方差為零, 那麼X和Y是不相關的。

機器學習之數學基礎(機器學習-數學知識大全)47

假設C為一個常數,X和Y實兩個随機變量,那麼協方差有性質如下所示:

機器學習之數學基礎(機器學習-數學知識大全)48

協方差是兩個随機變量具有相同方向變化趨勢的度量:

若Cov(X,Y) > 0, 則X和Y的變化趨勢相同;

若Cov(X,Y) < 0, 則X和Y的變化趨勢相反;

若Cov(X,Y) = 0,則X和Y不相關,也就是變化沒有什麼相關性

機器學習之數學基礎(機器學習-數學知識大全)49

機器學習之數學基礎(機器學習-數學知識大全)50

機器學習之數學基礎(機器學習-數學知識大全)52

大數定理

大數定律的意義:随着樣本容量n的增加,樣本平均數将接近于總體平均數(期望 μ),所以在統計推斷中,一般都會使用樣本平均數估計總體平均數的值。

也就是我們會使用一部分樣本的平均值來代替整體樣本的期望/均值,出現偏差 的可能是存在的,但是當n足夠大的時候,偏差的可能性是非常小的,當n無限大 的時候,這種可能性的概率基本為0。

大數定律的主要作用就是為使用頻率來估計概率提供了理論支持;為使用部分數 據來近似的模拟構建全部數據的特征提供了理論支持。

中心極限定理

中心極限定理就是一般在同分布的情況下,抽樣樣本值的規範和在總體數量趨于 無窮時的極限分布近似于正态分布

随機的抛六面的骰子, 計算三次的點數的和, 三 次點數的和其實就是一 個事件A,現在問事件A 發生的概率以及事件A 所屬的分布是什麼?

機器學習之數學基礎(機器學習-數學知識大全)53

最大似然估計

最大似然法(Maximum Likelihood Estimation, MLE)也稱為最大概似估計、 極大似然估計,是一種具有理論性的參數估計方法。基本思想是:當從模型總體 随機抽取n組樣本觀測值後,最合理的參數估計量應該使得從模型中抽取該n組樣 本觀測值的概率最大;一般步驟如下:

1. 寫出似然函數;

2. 對似然函數取對數,并整理;

3. 求導數;

4. 解似然方程

設總體分布為f(x,θ), {Xn}為該總體采樣得到的樣本。因為随機序列{Xn}獨立同分 布,則它們的聯合密度函數為:

機器學習之數學基礎(機器學習-數學知識大全)54

這裡θ被看做固定但是未知的參數,反過來,因為樣本已經存在,可以看做{Xn} 是固定的,L(x,θ)是關于θ的函數,即似然函數; 求參數θ的值,使得似然函數取最大值,這種方法叫做最大似然估計法。

若給定一組樣本{Xn},已知随機樣本符合高斯分布N(μ,σ^2),試估計σ和μ的值

分布的概率函數:

機器學習之數學基礎(機器學習-數學知識大全)55

最大似然函數的乘積:

機器學習之數學基礎(機器學習-數學知識大全)56

對數似然:

機器學習之數學基礎(機器學習-數學知識大全)57

化簡 :

機器學習之數學基礎(機器學習-數學知識大全)58

機器學習之數學基礎(機器學習-數學知識大全)59

機器學習之數學基礎(機器學習-數學知識大全)60

要求似然函數l(x)最大,即l(x)求極值即可,将似然函數對參數μ和σ分别求偏導數:

機器學習之數學基礎(機器學習-數學知識大全)61

機器學習之數學基礎(機器學習-數學知識大全)62

向量的計算

設兩向量為:

機器學習之數學基礎(機器學習-數學知識大全)63

向量的加法/減法滿足平行四邊形法則和三角形法則

機器學習之數學基礎(機器學習-數學知識大全)64

機器學習之數學基礎(機器學習-數學知識大全)65

機器學習之數學基礎(機器學習-數學知識大全)66

數乘:實數λ和向量a的叉乘乘積還是一個向量,記作λa,且|λa|=λ|a|;數 乘的幾何意義是将向量a進行伸長或者壓縮操作

機器學習之數學基礎(機器學習-數學知識大全)67

向量的運算

設兩向量為:

機器學習之數學基礎(機器學習-數學知識大全)68

并且a和b之間的夾角為:θ

數量積積:兩個向量的數量積(内積、點積)是一個數量/實數,記作

機器學習之數學基礎(機器學習-數學知識大全)69

機器學習之數學基礎(機器學習-數學知識大全)70

向量積:兩個向量的向量積(外積、叉積)是一個向量,記作

機器學習之數學基礎(機器學習-數學知識大全)71

; 向量積即兩個不共線非零向量所在平面的一組法向量。

機器學習之數學基礎(機器學習-數學知識大全)72

矩陣的直觀表示

數域F中m*n個數排成m行n列,并括以圓括弧(或方括弧)的數表示 成為數域F上的矩陣,通常用大寫字母記作A或者Am*n,有時也記作 A=(aij)m*n(i=1,2…,m;j=1,2,…n),其中aij表示矩陣A的第i行的第j列 元素,當F為實數域R時,A叫做實矩陣,當F為複數域C時,A叫做 複矩陣。

機器學習之數學基礎(機器學習-數學知識大全)73

矩陣的加減法

矩陣的加法與減法要求進行操作的兩個矩陣A和B具有相同的階, 假設A為m*n階矩陣,B為m*n階矩陣,那麼C=A B也是m*n階的 矩陣,并且矩陣C的元素滿足:

機器學習之數學基礎(機器學習-數學知識大全)74

機器學習之數學基礎(機器學習-數學知識大全)75

機器學習之數學基礎(機器學習-數學知識大全)76

機器學習之數學基礎(機器學習-數學知識大全)77

機器學習之數學基礎(機器學習-數學知識大全)78

矩陣與數的乘法

數乘:将數λ與矩陣A相乘,就是将數λ與矩陣A中的每一個元素相 乘,記作λA;結果C=λA,并且C中的元素滿足

機器學習之數學基礎(機器學習-數學知識大全)79

機器學習之數學基礎(機器學習-數學知識大全)80

數乘:

機器學習之數學基礎(機器學習-數學知識大全)81

機器學習之數學基礎(機器學習-數學知識大全)82

假設A為m*n階矩陣,x為n*1的列向量,則Ax為m*1的列向量,記 作

機器學習之數學基礎(機器學習-數學知識大全)83

機器學習之數學基礎(機器學習-數學知識大全)84

機器學習之數學基礎(機器學習-數學知識大全)85

矩陣的乘法

僅當第一個矩陣A的列數和第二個矩陣B的行數相等時 才能夠定義,假設A為m*s階矩陣,B為s*n階矩陣,那麼C=A*B是 m*n階矩陣,并且矩陣C中的元素滿足

機器學習之數學基礎(機器學習-數學知識大全)86

機器學習之數學基礎(機器學習-數學知識大全)87

乘法的前提 :左列==右行

由于這個python庫裡面有廣播機制,所以用一個m*n的矩陣可以和n個元素列矩陣做乘積:

機器學習之數學基礎(機器學習-數學知識大全)88

機器學習之數學基礎(機器學習-數學知識大全)89

機器學習之數學基礎(機器學習-數學知識大全)90

機器學習之數學基礎(機器學習-數學知識大全)91

機器學習之數學基礎(機器學習-數學知識大全)92

In [1]: import numpy as np In [2]: a = np.array([[1,2],[2,3],[4,5]]) In [3]: a Out[3]: array([[1, 2], [2, 3], [4, 5]]) In [4]: b = np.array([[1,2],[2,2]]) In [5]: a.dot(b) Out[5]: array([[ 5, 6], [ 8, 10], [14, 18]])

機器學習之數學基礎(機器學習-數學知識大全)92

廣播機制

機器學習之數學基礎(機器學習-數學知識大全)94

機器學習之數學基礎(機器學習-數學知識大全)92

from numpy import * import numpy as np # 創建随機矩陣: randomdom.rand(2,2) #注意沒有多餘的() # 創建随機矩陣: np.random.random((2,2)) #注意有多餘的() # 創建3*3的0-10之間的随機整數矩陣: np.random.randint(10,size=(3,3)) # 創建2-8之間的随機整數矩陣: np.random.randint(2,8,size=[2,5]) # 創建正态分布矩陣: np.random.normal(mean,stdev,size), 如,np.random.normal(1,0.1,(3,4)) 給出均值為mean,标準差為stdev的高斯随機數,size矩陣shape # 創建标準正态分布矩陣: np.random.randn(d0, d1, ..., dn) ,如np.random.randn(3,4)

機器學習之數學基礎(機器學習-數學知識大全)92

逆矩陣

逆矩陣:如果 A 是一個m x m 矩陣, 并且如果它有逆矩陣。矩陣與其逆陣的乘積等于單位陣:

機器學習之數學基礎(機器學習-數學知識大全)97

不是所有的矩陣都有逆矩陣沒有逆矩陣的矩陣稱為“奇異矩陣” 或“退化矩陣”。

轉置矩陣

行變列,列變行

機器學習之數學基礎(機器學習-數學知識大全)98

機器學習之數學基礎(機器學習-數學知識大全)99

機器學習之數學基礎(機器學習-數學知識大全)100

特征值分解(QR分解)

機器學習之數學基礎(機器學習-數學知識大全)101

機器學習之數學基礎(機器學習-數學知識大全)102

SVD分解

奇異值分解(Singular Value Decomposition)是一種重要的矩陣分 解方法,可以看做是對稱方陣在任意矩陣上的推廣

假設A為一個m*n階實矩陣,則存在一個分解使得:

機器學習之數學基礎(機器學習-數學知識大全)103

通常将奇異值由大到小排列,這樣Σ便能由A唯一确定了。

向量的導數(極其重要)

機器學習之數學基礎(機器學習-數學知識大全)104

标量對向量的導數

機器學習之數學基礎(機器學習-數學知識大全)105

機器學習之數學基礎(機器學習-數學知識大全)106

A為n*n的矩陣,|A|為A的行列式,計算

機器學習之數學基礎(機器學習-數學知識大全)107

機器學習之數學基礎(機器學習-數學知識大全)108

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关生活资讯推荐

热门生活资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved