1.3 局部加权线性回归(Locally weighted linear regression)
假如问题还是根据从实数域内取值的
那么这次不用直线拟合,增加一个二次项,用二次多项式
不过,增加太多特征也是有风险的:最右边的图就是使用了五次多项式
正如前文谈到的,也正如上面这个例子展示的,一个学习算法要保证能良好运行,特征的选择是非常重要的
在原始版本的线性回归算法中,要对一个查询点
- 使用参数
进行拟合,让数据集中的值与拟合算出的值的差值平方 最小 (最小二乘法的思想); - 输出
。
相应地,在 LWR 局部加权线性回归方法中,步骤如下:
- 使用参数
进行拟合,让加权距离 最小; - 输出
。
上面式子中的
对于权值的选取可以使用下面这个比较标准的公式:
NOTE
如果
要注意的是,权值是依赖每个特定的点
局部加权线性回归是咱们接触的第一个非参数 算法。而更早之前咱们看到的无权重的线性回归算法就是一种参数 学习算法,因为有固定的有限个数的参数(也就是
LWR 的解析解
首先将损失函数写为矩阵形式:
其中
欲使损失函数最小,需对
第五个等号利用了
故有