()常考虑的是同质弱学习器,相互独立地并行学习这些弱学习器,并按照某种确定性的平均过程将它们组合起来。
()常考虑的是同质弱学习器,相互独立地并行学习这些弱学习器,并按照某种确定性的平均过程将它们组合起来。
A、boosting
B、bagging
C、stacking
D、wrappering
正确答案:B
答案解析:
Bagging(装袋法):Bagging常使用同质弱学习器,例如多个决策树作为弱学习器。它通过从原始训练数据集中有放回地随机抽样,生成多个不同的子数据集,每个子数据集都用来独立地训练一个弱学习器,这些弱学习器相互独立地并行学习。在预测阶段,对于分类问题,通常采用投票的方式,让各个弱学习器进行投票,选择票数最多的类别作为最终预测结果;对于回归问题,则按照某种确定性的平均过程(如简单算术平均)将各个弱学习器的预测值组合起来得到最终预测值。例如,在使用Bagging构建的随机森林模型中,每棵决策树都基于不同的自助样本集独立训练,最后对所有决策树的预测结果进行平均(回归)或投票(分类),所以B选项符合描述。
Boosting:Boosting也是使用一系列弱学习器来构建强学习器,但它与Bagging不同。Boosting是串行生成弱学习器,每个新的弱学习器会重点关注前一个弱学习器分类错误的样本,通过不断调整样本权重,使得后续弱学习器能够纠正前面弱学习器的错误,而不是并行独立学习,A选项错误。
Stacking(堆叠法):Stacking同样使用多个弱学习器进行学习,它先让多个弱学习器对训练数据进行学习,然后将这些弱学习器的预测结果作为新的特征,再使用一个元学习器对这些新特征进行学习,以得到最终的预测结果。它不是简单的按照某种确定性平均过程组合弱学习器,与题目描述不符,C选项错误。
Wrappering:通常指的是Wrapper方法,它主要用于特征选择,将特征子集的选择看作搜索寻优问题,与弱学习器的组合方式无关,D选项错误。