1.2 代价函数/损失函数(cost function / loss function) 1.3 梯度下降法(gradient descent) 2. 多变量线性回归 2.1 多变量线性回归的算法 2.2 特征缩放 3. *正规方程法(normal equation) 3.1 正规方程法的结论 3.2 正规方程法的证明 3.3 正规方程法的几何意义 3.4 不可逆的解决办法 3.5 正规方程法与梯度下降法...
error_in_train = metrics.mean_squared_error(y_predict_in_train,y_train) #训练集上的Loss fucntion值(mean square) error_in_test = metrics.mean_squared_error(y_predict_in_test,y_test) #测试集上 Loss function的值(mean square) R_value = linereg01.score(X_train,y_train) # 计算 X与y ...
Linear Regression 模型 假设:y与x大致是线性关系 模型:y^=w1x1+⋯+wdxd+b 更简洁的表示:y^=w⊤x+b 可以通过将x增加一项 1,进而把b纳入w 对于所有数据,有如下表示:y^=Xw+b 同理可以通过将X增加一列 1,进而把b纳入w 损失函数Loss Function ...
Linear Regression 导读 Machine Learning (二) :Linear Regression & Loss Function & Gradient Descent Compared with most people are familiar with linear models, in this article, I will share my understanding with you. 一、Linear Regression 主要分为Linear Regression with One Variable & Linear Regression...
线性回归 Linear Regression 成本函数(cost function)也叫损失函数(loss function),用来定义模型与观测值的误差。模型预测的价格与训练集数据的差异称为残差(residuals)或训练误差(test errors)。 我们可以通过残差之和最小化实现最佳拟合,也就是说模型预测的值与训练集的数据最接近就是最佳拟合。对模型的拟合度进行...
线性回归、梯度下降(Linear Regression、Gradient Descent) 实例 首先举个例子,假设我们有一个二手房交易记录的数据集,已知房屋面积、卧室数量和房屋的交易价格,如下表: 假如有一个房子要卖,我们希望通过上表中的数据估算这个房子的价格。这个问题就是典型的回归问题,这边文章主要讲回归中的线性回归问题。
import numpy as np class SimpleLinearRegression1(object): def __init__(self): # ab不是用户送进来的参数,相当于是私有的属性 self.a_ = None self.b_ = None def fit(self, x_train,y_train): # fit函数:根据训练数据集来得到模型 assert x_train.ndim == 1, \ "simple linear regression ca...
损失函数(cost function或loss function)是用来衡量模型得到的预测值 与真值 之间的差距。是在通过迭代法求解模型参数时,优化问题的目标函数 。线性回归中,常用的损失函数有: Mean Square Error / L2 loss Mean Absolute Error / L1 loss Huber Loss Log cosh Loss ...
线性:两个变量之间的关系是一次函数关系的 非线性:两个变量之间的关系不是一次函数关系的 2、应用场景 房价预测 流量预测 票房预测 ... 3、表达式&优化函数 表达式: y=wx+b w是x的系数,b是偏置项 目标函数(Loss Function) 利用梯度下降法求 J 的最小值,从而推导出w和b 4...
2-linear-regression