首页
决策树的cp值越小,那么()
精华吧
→
答案
→
远程教育
→
国家开放大学
决策树的cp值越小,那么()
A、模型越复杂
B、训练误差越小
C、预测误差越小
D、模型更简单
正确答案:C
Tag:
误差
模型
决策树
时间:2024-03-21 12:15:08
上一篇:
下面关于决策树的剪枝操作理解不正确的是()。
下一篇:
减枝准则是为了在精确性和复杂性中找到平衡,一般采用()来度量两者之间的关系。
相关答案
1.
决策树中,CART算法生成的决策树是结构简洁的二叉树,在每一步的决策树只能选择“是”或“否”,即使一个feature有多个取值,也只能把数据分为两部分。
2.
下列关于随机森林算法,说法错误的是()
3.
CART的结果受自变量的单调变换的影响。
4.
构成随机森林的决策树越多,那么()
5.
用随机的方式建立一个森林。森林由很多决策树组成的算法是:()
6.
在聚类分析中,如果新类与其他类别之间存在多个点与点之间的距离,取这些距离最小者作为两类的距离,该方法为()。
7.
决策树中,CART算法生成的决策树是结构简洁的二叉树,在每一步的决策树只能选择“是”或“否”但当一个feature有多个取值,可以把数据分为多个部分。
8.
Mahalanobis距离指的是:()
9.
随机森林算法建立决策树过程中,对于行采样,采样无放回的方式。
10.
下列哪一项不属于聚类分析()。
热门答案
1.
随机森林的优势是()。
2.
随机森林算法建立决策树过程中,对于行采样,采样有放回的方式,也就是在采样得到的样本集合中,可能有重复的样本。
3.
下列关于随机森林算法,说法正确的是()。
4.
支持向量机算法中,超平面到所有两类数据点的距离之和称为分类器的边缘。
5.
以寻找最大边缘超平面为目的,以及构建相应的分类决策函数来分类的算法是()
6.
对于解决小样本、非线性及高维模式识别问题,()表现出许多特有的优势。
7.
不知道哪些学生有相同的某些特征。考虑按照学生的考试成绩、社会实践、思想品德等方面划分奖学金的等级。通常采用()。
8.
非线性支持向量机通过引进核函数解决线性不可分问题。
9.
当不知道哪些花是同一品种,哪些花不同品种时,考虑按照花瓣长宽与花萼长宽将不同品种的花分类。通常采用()。
10.
不知道哪些客户有同样的购物习惯与特征等。考虑按照客户的个人资料、购物特征、购物习惯等将客户进行分类。通常采用()。