點擊上方關注,All in AI中國
在今天的版本中,作者将帶領大家一塊去了解線性回歸。本博客的目的是通過使用python實現快速概述線性回歸的基本原理,讓我們一塊深入其中。
什麼是線性回歸?
線性回歸是一種監督學習算法,用于預測問題。
這是一種通過在獨立變量和因變量之間找到最佳拟合線來預測目标變量的方法,最佳拟合是所有點的最小誤差線。
什麼是最小二乘法?
最佳拟合度的計算方法是确保形狀與每個點的實際觀測值之間的所有距離之和盡可能小。
步驟1:計算x值和y值的平均值。
步驟2:計算線的斜率。即
步驟3:計算直線的y軸截距。即
例如,考慮以下數據:
繪制點數:
現在通過計算平均值:
x̄ = 5.86
ȳ = 6
計算線的斜率:
計算y軸截距:
c= 6 -(-0.83 * 5.86)
c= 10.86
該方程式為:
y = mx c
y = -0.83x 10.86
因此,我們從上面的例子中找到了最合适的線,在這條線的幫助下,我們可以預測這些值。
線性回歸的優缺點:
優點:
易于實施
用于預測數值
缺點:
當獨立變量和因變量之間的關系是非線性時,不能使用。
現在讓我們使用python的動手示例練習線性回歸:
數據集的功能:
父親 - 父親的身高以英寸為單位。
兒子 - 以英寸為單位的兒子的高度。
鑒于父親的身高,我們需要預測兒子的身高。
運營:李佳惠
,更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!