首页
KNN算法在类别决策时,与极少量的相邻样本有关。
精华吧
→
答案
→
远程教育
→
国家开放大学
KNN算法在类别决策时,与极少量的相邻样本有关。
A、正确
B、错误
正确答案:A
Tag:
样本
算法
类别
时间:2024-03-21 12:15:37
上一篇:
最近邻算法中,随着近邻个数的增加,模型的复杂度增加。
下一篇:
如图分别为k=1,k=10,k=30时,训练集数据与测试集数据的分布,说法正确的是()。
相关答案
1.
下列关于KNN算法说法正确的是()。
2.
KNN算法主要靠判别类域的方法来确定所属类别的,而不是靠周围有限的邻近的样本。
3.
近邻选得多,模型则比较稳健。
4.
KNN算法在类别决策时,与极多数量的相邻样本有关。
5.
在决策树中,节点误分率越大,那么()
6.
在决策树中,节点熵越大,那么()
7.
KNN算法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的。
8.
(假定在某个节点)如果数据已经只有一类了,则该节点为叶节点,否则进行下一步。该算法是:()
9.
决策树只有单一输出。
10.
决策树中结点的最优划分是依据()来确定的。
热门答案
1.
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以ID3算法提出了增益比。
2.
采用将样本递归划分建立对象属性与对象值之间映射的算法是:()
3.
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以C4.5算法提出了增益比。其中k为划分的总数,关于k的说法正确的是()
4.
决策树是一种由节点和有向边组成的层次结构。下列属于决策树的节点的是:()
5.
决策树算法依据数据类型的不同和树状结构的不同有不同版本的决策树,下列属于决策算法的是:()
6.
决策树中,我们需要比较父节点与子节点的不纯度,他们的差越大,测试条件的效果就越好。
7.
决策树中,我们需要比较父节点与子节点的不纯度,他们的差越小,测试条件的效果就越好。
8.
决策树中,ID3算法只能处理定性变量,且一个变量使用过后就不能再次使用了。
9.
关于下面的决策树说法不正确的是()。
10.
决策树中,ID3算法的一个变量使用过后还能再次使用。