PyTorch深度学习入门 深度学习基础 2.2 线性回归 1. 线性模型
PyTorch深度学习入门
深度学习基础
2.2 线性回归
线性回归LR(Linear Regression)
1. 线性模型
假设数据样本集 D D D 中有5个样本对
样本对 | 数值 |
---|---|
( x ( 1 ) , y ( 1 ) ) (x^{(1)},y^{(1)}) (x(1),y(1)) | (1.4,14.4) |
( x ( 2 ) , y ( 2 ) ) (x^{(2)},y^{(2)}) (x(2),y(2)) | (5,29.6) |
( x ( 3 ) , y ( 3 ) ) (x^{(3)},y^{(3)}) (x(3),y(3)) | (11,62) |
( x ( 4 ) , y ( 4 ) ) (x^{(4)},y^{(4)}) (x(4),y(4)) | (16,85.5) |
( x ( 5 ) , y ( 5 ) ) (x^{(5)},y^{(5)}) (x(5),y(5)) | (21,113.4) |
用matplotlib 绘制成图形瞅瞅样子
OK, 比较明显,可以用一条直线来简单拟合
依据二维平面中直线的数学公示:
y = k x + b y = kx + b y=kx+b
其中k为斜率,b是截距,又称为偏置(bias)。
不同的k、b组合可以代表不同的直线,所以k和b 非常重要,又称它们为参数parameter,有时候又称为权重weight。
为了统一,用 w 1 w_1 w1 代替k, w 0 w_0 w0 代替b,得到新公式:
y = w 1 x + w 0 y = w_1x + w_0 y=w1x+w0
还没有评论,来说两句吧...