以下关于随机森林(Random Forest)的说法正确的是()
A.随机森林由若干决策树构成,决策树之间存在关联性。
B.随机森林学习过程分为选择样本,选择特征,构建决策树、投票四个部分。
C.随机森林算法容易陷入过拟合。
D.随机森林构建决策树时,是无放回的选取训练数据。
A.随机森林由若干决策树构成,决策树之间存在关联性。
B.随机森林学习过程分为选择样本,选择特征,构建决策树、投票四个部分。
C.随机森林算法容易陷入过拟合。
D.随机森林构建决策树时,是无放回的选取训练数据。
A.随机森林是减少模型的方差,而GBDT是减少模型的偏差
B.组成随机森林的树可以并行生成,而GBDT是串行生成
C.随机森林的结果是多数表决表决的,而GBDT则是多棵树累加之和
A.可以处理高维度的属性,并且不用做特征选择
B.随机森林的预测能力不受多重共线性影响
C.也擅长处理小数据集和低维数据集的分类问题
D.能应对正负样本不平衡问题
A.random.random():生成一个0-1之间的随机浮点数
B.random.uniform(a,b):生成[a,b]之间的浮点数
C.random.randint(a,b):生成[a,b]之间的整数
D.random.choice(sequence):随机生成任意一个整数
A.和Adaboost相比,随机森林对错误和离群点更鲁棒
B.随机森林准确率不依赖于个体分类器的实例和他们之间的依赖性
C.随机森林对每次划分所考虑的属性数很偏感
D.Adaboost初始时每个训练元组被赋予相等的权重
A.随机森林算法的分类精度与所含决策树的数量没有太大关系
B.随机森林算法对异常值和缺失值不敏感储
C.随机森林算法完全不需要考虑过拟合问题
D.决策树之间相关系数越低、每棵决策树分类精度越高的随机森林模型的分类效果越好
A.n = randint.random(1,40)
B.n = random(1,40)
C.n = random.randint(1,40)
D.n = random,randint(1,40)