在XGBoost、LightGBM、CatBoost三个模型介绍与参数调优的基础上,进一步拓展模型类型和参数调优方法。
Boosting Tuning
线性回归模型;
模型性能验证;
嵌入式特征选择;
模型对比;
模型调参。
线性回归模型
线性回归对于特征的要求;
处理长尾分布;
理解线性回归模型;
针对线性回归模型的参数类型、损失函数、优化方法
简而言之:
$$ y = w * x + b $$
在多元线性回归中,并不是所用特征越多越好;选择少量、合适的特征既可以避免过拟合,也可以增加模型解释度。可以通过 3 种方法来选择特征:最优子集选择、向前或向后逐步选择、交叉验证法。
结合一个例子进行分析:
e.g. 线性回归模型 + 五折交叉验证 + 模拟真实业务
补充:
五折交叉验证
在使用训练集对参数进行训练的时候,经常会发现人们通常会将一整个训练集分为三个部分(比如mnist手写训练集)。一般分为:训练集(train_set),评估集(valid_set),测试集(test_set)这三个部分。这其实是为了保证训练效果而特意设置的。其中测试集很好理解,其实就是完全不参与训练的数据,仅仅用来观测测试效果的数据。而训练集和评估集则牵涉到下面的知识了。
因为在实际的训练中,训练的结果对于训练集的拟合程度通常还是挺好的(初始条件敏感),但是对于训练集之外的数据的拟合程度通常就不那么令人满意了。因此我们通常并不会把所有的数据集都拿来训练,而是分出一部分来(这一部分不参加训练)对训练集生成的参数进行测试,相对客观的判断这些参数对训练集之外的数据的符合程度。这种思想就称为交叉验证(Cross Validation)
模拟真实业务情况
我们不具有预知未来的能力,五折交叉验证在某些与时间相关的数据集上反而反映了不真实的情况。
因此我们可以采用时间顺序对数据集进行分割,保证最终的结果与五折交叉验证差距不大。
返回…
模型性能验证
评价函数与目标函数;
交叉验证方法;
留一验证方法;
针对时间序列问题的验证;
绘制学习率曲线和验证曲线;
在此前线性回归模型 + 五折交叉验证 + 模拟真实业务 例子的基础上我们通过绘制学习率曲线和验证曲线进行模型性能的验证。
1 from sklearn.model_selection import learning_curve, validation_curve
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 ? learning_curve def plot_learning_curve (estimator, title, X, y, ylim=None, cv=None,n_jobs=1 , train_size=np.linspace(.1 , 1.0 , 5 ) ) : plt.figure() plt.title(title) if ylim is not None : plt.ylim(*ylim) plt.xlabel('Training example' ) plt.ylabel('score' ) train_sizes, train_scores, test_scores = learning_curve(estimator, X, y, cv=cv, n_jobs=n_jobs, train_sizes=train_size, scoring = make_scorer(mean_absolute_error)) train_scores_mean = np.mean(train_scores, axis=1 ) train_scores_std = np.std(train_scores, axis=1 ) test_scores_mean = np.mean(test_scores, axis=1 ) test_scores_std = np.std(test_scores, axis=1 ) plt.grid() plt.fill_between(train_sizes, train_scores_mean - train_scores_std, train_scores_mean + train_scores_std, alpha=0.1 , color="r" ) plt.fill_between(train_sizes, test_scores_mean - test_scores_std, test_scores_mean + test_scores_std, alpha=0.1 , color="g" ) plt.plot(train_sizes, train_scores_mean, 'o-' , color='r' , label="Training score" ) plt.plot(train_sizes, test_scores_mean,'o-' ,color="g" , label="Cross-validation score" ) plt.legend(loc="best" ) return plt
1 plot_learning_curve(LinearRegression(), 'Liner_model' , train_X[:1000 ], train_y_ln[:1000 ], ylim=(0.0 , 0.5 ), cv=5 , n_jobs=1 )
1 2 3 4 5 train = sample_feature[continuous_feature_names + ['price' ]].dropna() train_X = train[continuous_feature_names] train_y = train['price' ] train_y_ln = np.log(train_y + 1 )
返回…
嵌入式特征选择
学前知识:
用简单易懂的语言描述「过拟合 overfitting」学习资源
模型复杂度与模型的泛化能力 学习资源
正则化的直观理解 学习资源
在过滤式 和包裹式 特征选择方法中,特征选择过程与学习器训练过程有明显的分别。
而嵌入式特征选择在学习器训练过程中自动地进行特征选择。嵌入式选择最常用的是L1正则化 与L2正则化 。在对线性回归模型加入两种正则化方法后,他们分别变成了岭回归 与Lasso回归 。
L2正则化
在拟合过程中通常都倾向于让权值尽可能小,最后构造一个所有参数都比较小的模型。
因为一般认为参数值小的模型比较简单,能适应不同的数据集,也在一定程度上避免了过拟合现象。可以设想一下对于一个线性回归方程,若参数很大,那么只要数据偏移一点点,就会对结果造成很大的影响;但如果参数足够小,数据偏移得多一点也不会对结果造成什么影响,专业一点的说法是『抗扰动能力强』
L1正则化
有助于生成一个稀疏权值矩阵,进而可以用于特征选择。
Other 除此之外,决策树通过信息熵或GINI指数选择分裂节点时,优先选择的分裂特征也更加重要,这同样是一种特征选择的方法。XGBoost与LightGBM模型中的model_importance指标正是基于此计算的。
返回…
模型对比
除了线性模型以外,还有许多我们常用的非线性模型如下,在此篇幅有限不再一一讲解原理。我们选择了部分常用模型与线性模型进行效果比对。
1 2 3 4 5 6 7 8 from sklearn.linear_model import LinearRegressionfrom sklearn.svm import SVCfrom sklearn.tree import DecisionTreeRegressorfrom sklearn.ensemble import RandomForestRegressorfrom sklearn.ensemble import GradientBoostingRegressorfrom sklearn.neural_network import MLPRegressorfrom xgboost.sklearn import XGBRegressorfrom lightgbm.sklearn import LGBMRegressor
1 2 3 4 5 6 7 models = [LinearRegression(), DecisionTreeRegressor(), RandomForestRegressor(), GradientBoostingRegressor(), MLPRegressor(solver='lbfgs' , max_iter=100 ), XGBRegressor(n_estimators = 100 , objective='reg:squarederror' ), LGBMRegressor(n_estimators = 100 )]
1 2 3 4 5 6 result = dict() for model in models: model_name = str(model).split('(' )[0 ] scores = cross_val_score(model, X=train_X, y=train_y_ln, verbose=0 , cv = 5 , scoring=make_scorer(mean_absolute_error)) result[model_name] = scores print(model_name + ' is finished' )
1 2 3 result = pd.DataFrame(result) result.index = ['cv' + str(x) for x in range(1 , 6 )] result
返回…
模型调参
介绍三种常用的调参方法:
1 2 3 4 5 6 7 8 9 objective = ['regression' , 'regression_l1' , 'mape' , 'huber' , 'fair' ] num_leaves = [3 ,5 ,10 ,15 ,20 ,40 , 55 ] max_depth = [3 ,5 ,10 ,15 ,20 ,40 , 55 ] bagging_fraction = [] feature_fraction = [] drop_rate = []
贪心算法 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 best_obj = dict() for obj in objective: model = LGBMRegressor(objective=obj) score = np.mean(cross_val_score(model, X=train_X, y=train_y_ln, verbose=0 , cv = 5 , scoring=make_scorer(mean_absolute_error))) best_obj[obj] = score best_leaves = dict() for leaves in num_leaves: model = LGBMRegressor(objective=min(best_obj.items(), key=lambda x:x[1 ])[0 ], num_leaves=leaves) score = np.mean(cross_val_score(model, X=train_X, y=train_y_ln, verbose=0 , cv = 5 , scoring=make_scorer(mean_absolute_error))) best_leaves[leaves] = score best_depth = dict() for depth in max_depth: model = LGBMRegressor(objective=min(best_obj.items(), key=lambda x:x[1 ])[0 ], num_leaves=min(best_leaves.items(), key=lambda x:x[1 ])[0 ], max_depth=depth) score = np.mean(cross_val_score(model, X=train_X, y=train_y_ln, verbose=0 , cv = 5 , scoring=make_scorer(mean_absolute_error))) best_depth[depth] = score
1 sns.lineplot(x=['0_initial' ,'1_turning_obj' ,'2_turning_leaves' ,'3_turning_depth' ], y=[0.143 ,min(best_obj.values()), min(best_leaves.values()), min(best_depth.values())])
Grid Search 调参 1 from sklearn.model_selection import GridSearchCV
1 2 3 4 parameters = {'objective' : objective , 'num_leaves' : num_leaves, 'max_depth' : max_depth} model = LGBMRegressor() clf = GridSearchCV(model, parameters, cv=5 ) clf = clf.fit(train_X, train_y)
1 2 3 4 5 6 clf.best_params_ model = LGBMRegressor(objective='regression' , num_leaves=55 , max_depth=15 ) np.mean(cross_val_score(model, X=train_X, y=train_y_ln, verbose=0 , cv = 5 , scoring=make_scorer(mean_absolute_error)))
贝叶斯调参 1 from bayes_opt import BayesianOptimization
1 2 3 4 5 6 7 8 9 10 11 def rf_cv (num_leaves, max_depth, subsample, min_child_samples) : val = cross_val_score( LGBMRegressor(objective = 'regression_l1' , num_leaves=int(num_leaves), max_depth=int(max_depth), subsample = subsample, min_child_samples = int(min_child_samples) ), X=train_X, y=train_y_ln, verbose=0 , cv = 5 , scoring=make_scorer(mean_absolute_error) ).mean() return 1 - val
1 2 3 4 5 6 7 8 9 rf_bo = BayesianOptimization( rf_cv, { 'num_leaves' : (2 , 100 ), 'max_depth' : (2 , 100 ), 'subsample' : (0.1 , 1 ), 'min_child_samples' : (2 , 100 ) } )
1 2 rf_bo.maximize() 1 - rf_bo.max['target' ]
学习资源补充:
推荐教材:
Author:
Rokosnake
License:
Copyright (c) 2019 CC-BY-NC-4.0 LICENSE
Slogan:
How to thought, there is what kind of life.