首页
闂傚倸鍊搁崐鐑芥嚄閼哥數浠氭繝鐢靛仜閻°劌鐣濈粙璺ㄦ殾婵°倐鍋撻柍钘夘槸椤繈顢樿缂嶆淇婇悙顏勨偓鏍暜閹烘柡鍋撳鐓庡⒋闁诡垰鑻灃闁告侗鍠氶崣鍡涙⒑缂佹ɑ绀€闁稿﹤婀遍埀顒佺啲閹凤拷
闂傚倸鍊搁崐鐑芥嚄閸洖纾婚柟鎹愵嚙缁犱即鏌熼梻瀵割槮缁炬儳缍婇弻锕€螣娓氼垱孝闂佸搫顑嗗Λ鍐嵁閺嶎灔搴敆閳ь剟鎮橀鍫熺厱閹艰揪绲介弸娑㈡煛鐏炲墽娲寸€殿喗鎸虫俊鎼佸Ψ閵堝洤鍤梻鍌欑劍閻綊宕愯楠炲繘鏁撻敓锟�
濠电姷鏁告慨鐢割敊閺嶎厼绐楁俊銈呮噺閺咁亪姊绘担鍓插悢闁哄鐏濋‖瀣磽娓氬洤鏋涢柨鏇ㄤ邯楠炲啫鈻庨幙鍐╂櫌闂侀€炲苯澧存い銏″哺閺屽棗顓奸崱娆忓汲闂備胶绮ú鏍磹閸︻厸鍋撳鐐
闂傚倸鍊峰ù鍥х暦閻㈢ǹ绐楅柟鎷屽焽閳ь剙鍟村畷鍗炩枎鐏炴垝澹曠紓浣诡殕缁嬫垵煤閿曞倸纾诲鑸靛姈閻撴洟鏌熼幑鎰毢闁告柨绉撮埞鎴︻敍濮樸儱浠梺鍝勮閸旀垿骞冮妶澶婄<婵炴垶锕╂导锟�
缂傚倸鍊搁崐鎼佸磹瀹勯偊娓婚柟鐑橆殔缁€瀣叏濡炶浜鹃悗瑙勬礈閹虫挾鍙呭銈呯箰鐎氣偓鐟滄棃寮婚敐澶婄闁告劘灏欏Σ鏉库攽閻愭彃鎮戦柣妤冨█瀵濡搁埡鍌氫簽闂佺ǹ鏈粙鎴︻敂閿燂拷
婵犵數濮烽弫鎼佸磻閻愬搫鍨傞柛顐f礀缁犱即鏌熼梻瀵歌箞闁搞儺鍓﹂弫宥嗘叏閿濆骸骞橀柟铏崄閻忓啴姊洪柅鐐茶嫰婢ф挳鏌曢崼顐$凹缂佺粯绻傞~婵嬵敆娓氬洦顥ら梻鍌欑閹诧繝骞愰崱娑樺窛妞ゆ棃鏁崑鎾绘晸閿燂拷
闂傚倸鍊搁崐鐑芥嚄閸洖鍌ㄧ憸鏃堝箖濞差亜惟闁宠桨绀侀悗顓㈡偡濠婂懎顣奸悽顖涱殜瀹曟垿濡舵径瀣幐闂佸憡鍔戦崝搴㈡櫠閺囩姷纾奸柣妯哄暱閻忔挳鏌$仦鐐鐎垫澘瀚板畷鐓庘攽閸♀晝鈧绱撻崒娆愵樂缂佽绻濆畷鏉款潩鐠鸿櫣鍔﹀銈嗗笂缁讹繝宕箛娑欑厱闁挎繂楠搁悘锔筋殽閻愯尙绠婚柡浣规崌閺佹捇鏁撻敓锟�
闂傚倸鍊搁崐鐑芥嚄閸撲礁鍨濇い鏍ㄧ矊閺嬪牏鈧箍鍎卞ú銈夊垂濠靛鍙撻柛銉e妿閳洟鏌涙惔锛勑ч柡宀嬬秮閺佹劙宕ㄩ鑺ュ闂佽瀛╃喊宥呯暆閹间礁钃熼柕濞炬櫆閸嬪棝鏌涚仦鍓р槈妞ゅ骏鎷�
婵犵數濮烽弫鎼佸磻閻愬搫鍨傞柛顐f礀缁犱即鏌熺紒銏犳灈缁炬儳顭烽弻鐔煎箚瑜嶉。宕囩棯閹佸仮闁哄矉绻濆畷姗€鏁愰崨顒€顥氶梻鍌欐祰瀹曠敻宕伴崱娑樼?闂傚牊绋撻弳锕傛煣韫囨稈鍋撳☉娆忓闂備胶绮崝锕傚礈濞嗘挸绀夐柛娑樼摠閳锋垿鎮归幁鎺戝婵炲懏鍔欓弻鐔煎礄閵堝棗顏�
闂傚倸鍊搁崐鐑芥嚄閸洖绠犻柟鍓х帛閸嬨倝鏌曟繛鐐珔缂佲偓婢跺鍙忔俊鐐额嚙娴滄儳顪冮妶鍐ㄧ仾鐎光偓閸涘﹥鍙忛柍褜鍓熼弻宥夊Ψ閵壯嶇礊缂備焦鍔楅崑銈夊箖瀹勬壋鍫柛鎰碘偓顖嗗應鍋撶憴鍕┛缂傚秳绶氬顐﹀箻缂佹ɑ娅㈤梺璺ㄥ櫐閹凤拷
闂傚倸鍊搁崐鎼佸磹妞嬪海鐭嗗〒姘e亾妤犵偞鐗犻、鏇㈠Χ閸モ晝鍘犻梻浣告惈椤︿即宕靛顑炴椽顢斿鍡樻珝闂備線鈧偛鑻崢鎾煕鐎n偅宕岀€规洘甯¢幃娆戔偓娑櫳戦鐔兼⒒娴h姤纭堕柛锝忕畵楠炲繘鏁撻敓锟�
闂傚倸鍊搁崐鎼佸磹妞嬪海鐭嗗〒姘e亾妤犵偞鐗犻、鏇㈡晝閳ь剛绮婚悩鍏呯箚妞ゆ牗绻傛禍鍦棯閹规劕袚闁逛究鍔岃灒闁圭ǹ娴烽妴鎰磽娴f彃浜鹃梺绋跨灱閸嬬偤鎮¢妷鈺傜厽闁哄洨鍋涢埀顒€婀遍埀顒佺啲閹凤拷
TAG
闂傚倸鍊搁崐鎼佸磹閻戣姤鍤勯柛顐f礀缁犵娀鏌熼幑鎰靛殭閻熸瑱绠撻幃妤呮晲鎼粹€愁潻闂佹悶鍔嶇换鍫ョ嵁閺嶎灔搴敆閳ь剚淇婇懖鈺冩/闁诡垎浣镐划闂佸搫琚崝鎴﹀箖閵堝纾兼繛鎴烇供娴硷拷
决策树中,C4.5算法是ID3算法的延伸,可以处理缺失值、连续变量及剪枝等。
精华吧
→
答案
→
远程教育
→
国家开放大学
决策树中,C4.5算法是ID3算法的延伸,可以处理缺失值、连续变量及剪枝等。
A、正确
B、错误
正确答案:A
Tag:
算法
缺失
变量
时间:2024-03-21 12:15:16
上一篇:
决策树中,ID3算法既能处理定性变量,也能处理连续变量、缺失值等。
下一篇:
下列不属于CART算法的优点的是()。
相关答案
1.
决策树算法中,将当前样本划分为两个子样本,使得生成的每个非叶节点都有两个分支的算法是()
2.
关于下面的决策树说法正确的是()。
3.
下面关于决策树的剪枝操作理解正确的是()。
4.
下列属于CART算法的优点的是()。
5.
CART的结果不受自变量的单调变换的影响。
6.
减枝准则是为了在精确性和复杂性中找到平衡,一般采用()来度量两者之间的关系。
7.
决策树的cp值越小,那么()
8.
下面关于决策树的剪枝操作理解不正确的是()。
9.
决策树中,CART算法生成的决策树是结构简洁的二叉树,在每一步的决策树只能选择“是”或“否”,即使一个feature有多个取值,也只能把数据分为两部分。
10.
下列关于随机森林算法,说法错误的是()
热门答案
1.
CART的结果受自变量的单调变换的影响。
2.
构成随机森林的决策树越多,那么()
3.
用随机的方式建立一个森林。森林由很多决策树组成的算法是:()
4.
在聚类分析中,如果新类与其他类别之间存在多个点与点之间的距离,取这些距离最小者作为两类的距离,该方法为()。
5.
决策树中,CART算法生成的决策树是结构简洁的二叉树,在每一步的决策树只能选择“是”或“否”但当一个feature有多个取值,可以把数据分为多个部分。
6.
Mahalanobis距离指的是:()
7.
随机森林算法建立决策树过程中,对于行采样,采样无放回的方式。
8.
下列哪一项不属于聚类分析()。
9.
随机森林的优势是()。
10.
随机森林算法建立决策树过程中,对于行采样,采样有放回的方式,也就是在采样得到的样本集合中,可能有重复的样本。