原文:https://machinelearningmastery.com/ridge-regression-with-python/
最后更新于 2020 年 10 月 11 日
回归是一项建模任务,包括预测给定输入的数值。
线性回归是回归的标准算法,假设输入和目标变量之间存在线性关系。线性回归的扩展调用了在训练期间对损失函数增加惩罚,这鼓励具有较小系数值的更简单的模型。这些扩展被称为正则化线性回归或惩罚线性回归。
岭回归是一种流行的正则化线性回归,包括 L2 惩罚。这具有缩小那些对预测任务贡献不大的输入变量的系数的效果。
在本教程中,您将发现如何在 Python 中开发和评估岭回归模型。
完成本教程后,您将知道:
- 岭回归是线性回归的扩展,它在训练期间给损失函数增加了正则化惩罚。
- 如何评估岭回归模型并使用最终模型对新数据进行预测。
- 如何通过网格搜索和自动为新数据集配置岭回归模型。
我们开始吧。
- 更新 2020 年 10 月:更新网格搜索程序中的代码,以匹配描述。
如何在 Python 中开发岭回归模型 图片由 Susanne Nilsson 提供,保留部分权利。
本教程分为三个部分;它们是:
- 里脊回归
- 岭回归的例子
- 调谐脊超参数
线性回归是指假设输入变量和目标变量之间存在线性关系的模型。
对于单个输入变量,这种关系是一条线,对于更高的维度,这种关系可以被认为是连接输入变量和目标变量的超平面。模型的系数是通过优化过程找到的,该过程寻求最小化预测值( yhat )和预期目标值( y )之间的误差平方和。
- 损失=总和 i=0 至 n(y _ I–yhat_i)^2
线性回归的一个问题是模型的估计系数会变大,使模型对输入敏感,并且可能不稳定。对于观测值很少(样本)或样本数比输入预测值( p )或变量(所谓的 p > > n 问题)少( n )的问题尤其如此。
解决回归模型稳定性的一种方法是改变损失函数,以包括具有大系数的模型的额外成本。在训练过程中使用这些修正损失函数的线性回归模型统称为惩罚线性回归。
一种流行的惩罚是基于系数值平方之和(β)来惩罚模型。这被称为 L2 处罚。
- l2 _ 罚分=总和 j=0 至 p beta_j^2
L2 惩罚最小化了所有系数的大小,尽管它通过允许任何系数的值变为零来防止从模型中移除任何系数。
这种惩罚的效果是,只有当上证综指按比例减少时,参数估计才被允许变大。实际上,随着λ罚值变大,这种方法将估计值缩小到 0(这些技术有时被称为“缩小方法”)。
—第 123 页,应用预测建模,2013 年。
这种惩罚可以加到线性回归的代价函数中,称为 Tikhonov 正则化(作者之后),或者更一般地称为岭回归。
使用名为“λ”的超参数来控制损失函数的惩罚权重。默认值 1.0 将会完全加权该惩罚;值 0 不包括罚款。很小的λ值,如 1e-3 或更小,是常见的。
- ridge _ loss = loss+(λ* L2 _ pension)
现在我们已经熟悉了岭惩罚回归,让我们来看看一个成功的例子。
在本节中,我们将演示如何使用岭回归算法。
首先,让我们介绍一个标准回归数据集。我们将使用房屋数据集。
外壳数据集是一个标准的机器学习数据集,包括 506 行数据,有 13 个数字输入变量和一个数字目标变量。
使用三次重复的重复分层 10 倍交叉验证的测试工具,一个简单的模型可以获得大约 6.6 的平均绝对误差(MAE)。一个表现最好的模型可以在大约 1.9 的相同测试线束上实现 MAE。这提供了此数据集的预期表现范围。
该数据集包括预测美国波士顿郊区的房价。
不需要下载数据集;我们将自动下载它作为我们工作示例的一部分。
下面的示例将数据集下载并加载为熊猫数据框,并总结了数据集的形状和前五行数据。
# load and summarize the housing dataset
from pandas import read_csv
from matplotlib import pyplot
# load dataset
url = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/housing.csv'
dataframe = read_csv(url, header=None)
# summarize shape
print(dataframe.shape)
# summarize first few lines
print(dataframe.head())
运行该示例确认了 506 行数据、13 个输入变量和一个数字目标变量(总共 14 个)。我们还可以看到,所有的输入变量都是数字。
(506, 14)
0 1 2 3 4 5 ... 8 9 10 11 12 13
0 0.00632 18.0 2.31 0 0.538 6.575 ... 1 296.0 15.3 396.90 4.98 24.0
1 0.02731 0.0 7.07 0 0.469 6.421 ... 2 242.0 17.8 396.90 9.14 21.6
2 0.02729 0.0 7.07 0 0.469 7.185 ... 2 242.0 17.8 392.83 4.03 34.7
3 0.03237 0.0 2.18 0 0.458 6.998 ... 3 222.0 18.7 394.63 2.94 33.4
4 0.06905 0.0 2.18 0 0.458 7.147 ... 3 222.0 18.7 396.90 5.33 36.2
[5 rows x 14 columns]
Sklearn Python 机器学习库通过岭类提供了岭回归算法的实现。
令人困惑的是,在定义类时,lambda 术语可以通过“ alpha ”参数进行配置。默认值为 1.0 或全额罚款。
...
# define model
model = Ridge(alpha=1.0)
我们可以使用重复 10 倍交叉验证来评估住房数据集上的岭回归模型,并报告数据集上的平均绝对误差(MAE)。
# evaluate an ridge regression model on the dataset
from numpy import mean
from numpy import std
from numpy import absolute
from pandas import read_csv
from sklearn.model_selection import cross_val_score
from sklearn.model_selection import RepeatedKFold
from sklearn.linear_model import Ridge
# load the dataset
url = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/housing.csv'
dataframe = read_csv(url, header=None)
data = dataframe.values
X, y = data[:, :-1], data[:, -1]
# define model
model = Ridge(alpha=1.0)
# define model evaluation method
cv = RepeatedKFold(n_splits=10, n_repeats=3, random_state=1)
# evaluate model
scores = cross_val_score(model, X, y, scoring='neg_mean_absolute_error', cv=cv, n_jobs=-1)
# force scores to be positive
scores = absolute(scores)
print('Mean MAE: %.3f (%.3f)' % (mean(scores), std(scores)))
运行该示例评估住房数据集上的岭回归算法,并报告 10 倍交叉验证的三次重复的平均 MAE。
鉴于学习算法的随机性,您的具体结果可能会有所不同。考虑运行这个例子几次。
在这种情况下,我们可以看到模型实现了大约 3.382 的 MAE。
Mean MAE: 3.382 (0.519)
我们可能会决定使用岭回归作为我们的最终模型,并对新数据进行预测。
这可以通过在所有可用数据上拟合模型并调用 predict() 函数,传入新的数据行来实现。
我们可以用下面列出的完整示例来演示这一点。
# make a prediction with a ridge regression model on the dataset
from pandas import read_csv
from sklearn.linear_model import Ridge
# load the dataset
url = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/housing.csv'
dataframe = read_csv(url, header=None)
data = dataframe.values
X, y = data[:, :-1], data[:, -1]
# define model
model = Ridge(alpha=1.0)
# fit model
model.fit(X, y)
# define new data
row = [0.00632,18.00,2.310,0,0.5380,6.5750,65.20,4.0900,1,296.0,15.30,396.90,4.98]
# make a prediction
yhat = model.predict([row])
# summarize prediction
print('Predicted: %.3f' % yhat)
运行该示例符合模型,并对新的数据行进行预测。
Predicted: 30.253
接下来,我们可以看看配置模型超参数。
我们如何知道α= 1.0的默认超参数适合我们的数据集?
我们没有。
相反,测试一套不同的配置并发现什么最适合我们的数据集是一个很好的做法。
一种方法是在对数标度上从 1e-5 到 100 的范围内网格搜索α值,并发现什么最适合数据集。另一种方法是测试 0.0 到 1.0 之间的值,网格间距为 0.01。在这种情况下,我们将尝试后者。
下面的例子使用 GridSearchCV 类和我们定义的值网格来演示这一点。
# grid search hyperparameters for ridge regression
from numpy import arange
from pandas import read_csv
from sklearn.model_selection import GridSearchCV
from sklearn.model_selection import RepeatedKFold
from sklearn.linear_model import Ridge
# load the dataset
url = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/housing.csv'
dataframe = read_csv(url, header=None)
data = dataframe.values
X, y = data[:, :-1], data[:, -1]
# define model
model = Ridge()
# define model evaluation method
cv = RepeatedKFold(n_splits=10, n_repeats=3, random_state=1)
# define grid
grid = dict()
grid['alpha'] = arange(0, 1, 0.01)
# define search
search = GridSearchCV(model, grid, scoring='neg_mean_absolute_error', cv=cv, n_jobs=-1)
# perform the search
results = search.fit(X, y)
# summarize
print('MAE: %.3f' % results.best_score_)
print('Config: %s' % results.best_params_)
运行该示例将使用重复的交叉验证来评估配置的每个组合。
鉴于学习算法的随机性,您的具体结果可能会有所不同。试着运行这个例子几次。
在这种情况下,我们可以看到我们获得了比默认的 3.379 vs. 3.382 稍好的结果。忽略标志;出于优化目的,该库使 MAE 为负。
我们可以看到模型给惩罚分配了一个 0.51 的α权重。
MAE: -3.379
Config: {'alpha': 0.51}
Sklearn 库还提供了一个内置的算法版本,可以通过 RidgeCV 类自动找到好的超参数。
为了使用这个类,它适合于训练数据集并用于进行预测。在训练过程中,它会自动调整超参数值。
默认情况下,模型将只测试α值(0.1,1.0,10.0)。我们可以通过设置“阿尔法”参数,将它更改为 0 到 1 之间的值网格,间距为 0.01,就像我们在前面的示例中所做的那样。
下面的例子演示了这一点。
# use automatically configured the ridge regression algorithm
from numpy import arange
from pandas import read_csv
from sklearn.linear_model import RidgeCV
from sklearn.model_selection import RepeatedKFold
# load the dataset
url = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/housing.csv'
dataframe = read_csv(url, header=None)
data = dataframe.values
X, y = data[:, :-1], data[:, -1]
# define model evaluation method
cv = RepeatedKFold(n_splits=10, n_repeats=3, random_state=1)
# define model
model = RidgeCV(alphas=arange(0, 1, 0.01), cv=cv, scoring='neg_mean_absolute_error')
# fit model
model.fit(X, y)
# summarize chosen configuration
print('alpha: %f' % model.alpha_)
运行该示例符合模型,并使用交叉验证发现给出最佳结果的超参数。
鉴于学习算法的随机性,您的具体结果可能会有所不同。试着运行这个例子几次。
在这种情况下,我们可以看到模型选择了我们通过手动网格搜索找到的α= 0.51的相同超参数。
alpha: 0.510000
如果您想更深入地了解这个主题,本节将提供更多资源。
在本教程中,您发现了如何在 Python 中开发和评估岭回归模型。
具体来说,您了解到:
- 岭回归是线性回归的扩展,它在训练期间给损失函数增加了正则化惩罚。
- 如何评估岭回归模型并使用最终模型对新数据进行预测。
- 如何通过网格搜索和自动为新数据集配置岭回归模型。
你有什么问题吗? 在下面的评论中提问,我会尽力回答。