首页
决策树中结点的最优划分是依据()来确定的。
精华吧
→
答案
→
远程教育
→
国家开放大学
决策树中结点的最优划分是依据()来确定的。
A、局部最优性
B、信息增益大的划分
C、信息增益小的划分
D、GINI增益大的划分
正确答案:ABD
Tag:
增益
结点
信息
时间:2024-03-21 12:15:29
上一篇:
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以ID3算法提出了增益比。
下一篇:
决策树只有单一输出。
相关答案
1.
采用将样本递归划分建立对象属性与对象值之间映射的算法是:()
2.
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以C4.5算法提出了增益比。其中k为划分的总数,关于k的说法正确的是()
3.
决策树是一种由节点和有向边组成的层次结构。下列属于决策树的节点的是:()
4.
决策树算法依据数据类型的不同和树状结构的不同有不同版本的决策树,下列属于决策算法的是:()
5.
决策树中,我们需要比较父节点与子节点的不纯度,他们的差越大,测试条件的效果就越好。
6.
决策树中,我们需要比较父节点与子节点的不纯度,他们的差越小,测试条件的效果就越好。
7.
决策树中,ID3算法只能处理定性变量,且一个变量使用过后就不能再次使用了。
8.
关于下面的决策树说法不正确的是()。
9.
决策树中,ID3算法的一个变量使用过后还能再次使用。
10.
下面关于决策树的剪枝操作理解错误的是()。
热门答案
1.
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以C4.5算法提出了增益比。
2.
决策树算法的C4.5算法可以处理()。
3.
下列不属于CART算法的优点的是()。
4.
决策树中,C4.5算法是ID3算法的延伸,可以处理缺失值、连续变量及剪枝等。
5.
决策树中,ID3算法既能处理定性变量,也能处理连续变量、缺失值等。
6.
决策树算法中,将当前样本划分为两个子样本,使得生成的每个非叶节点都有两个分支的算法是()
7.
关于下面的决策树说法正确的是()。
8.
下面关于决策树的剪枝操作理解正确的是()。
9.
下列属于CART算法的优点的是()。
10.
CART的结果不受自变量的单调变换的影响。