首页
每个样本都可以用它最接近的k个邻居来代表的算法是:()
精华吧
→
答案
→
远程教育
→
国家开放大学
每个样本都可以用它最接近的k个邻居来代表的算法是:()
A、支持向量机
B、决策树
C、最近邻分类
D、线性判别
正确答案:C
Tag:
向量
近邻
线性
时间:2024-03-21 12:15:47
上一篇:
贝叶斯判别既没有考虑每个分类的观察值不同时,每类出现的机会是不同的,也没有考虑误判所造成的损失差异。
下一篇:
马氏距离不受总体空间大小的影响,也不受计量单位的影响,反映了按平均水平计算被判定样本到中心的相对距离。
相关答案
1.
先验概率是根据以往经验和分析得到的概率。
2.
下列关于贝叶斯判别和线性判别,说法正确的是()
3.
通常情况下,线性判别(距离判别)一般采用马氏距离。
4.
马氏距离既受总体空间大小的影响,也受计量单位的影响,反映了按平均水平计算被判定样本到中心的相对距离。
5.
下列关于贝叶斯判别和线性判别,说法错误的是()。
6.
下列哪一个方法适用于类域的交叉或重叠较多的待分样本集()
7.
距离判别既没有考虑每个分类的观察值不同时,每类出现的机会是不同的,也没有考虑误判所造成的损失差异。
8.
下列关于k近邻算法的k值,说法正确的是()
9.
如图是某数据集训练集和测试集的KNN算法的训练精度和测试精度,从图中可以判断k值取()最为合适。
10.
下列关于KNN算法说法错误的是()。
热门答案
1.
如图分别为k=1,k=10,k=30时,训练集数据与测试集数据的分布,说法正确的是()。
2.
KNN算法在类别决策时,与极少量的相邻样本有关。
3.
最近邻算法中,随着近邻个数的增加,模型的复杂度增加。
4.
下列关于KNN算法说法正确的是()。
5.
KNN算法主要靠判别类域的方法来确定所属类别的,而不是靠周围有限的邻近的样本。
6.
近邻选得多,模型则比较稳健。
7.
KNN算法在类别决策时,与极多数量的相邻样本有关。
8.
在决策树中,节点误分率越大,那么()
9.
在决策树中,节点熵越大,那么()
10.
KNN算法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的。