在线性回归问题中,我们用R方来衡量拟合的好坏。在线性回归模型中增加特征值并再训练同一模型。下列()是正确的。
A.如果R方上升,则该变量是显著的
B.如果R方下降,则该变量不显著
C.单单R方不能反映变量重要性,不能就此得出正确结论
D.以上答案都不正确
A.如果R方上升,则该变量是显著的
B.如果R方下降,则该变量不显著
C.单单R方不能反映变量重要性,不能就此得出正确结论
D.以上答案都不正确
A.如果R-Squared增加,则这个特征有意义
B.如果R-Squared减小,则这个特征没有意义
C.仅看R-Squared单一变量,无法确定这个特征是否有意义。
D.以上说法都不对
A.支持向量回归是将支持向量的方法应用到回归问题中
B.支持向量回归同样可以应用核函数求解线性不可分的问题
C.同分类算法不同的是,支持向量回归要最小化一个凹函数
D.支持向量回归的解是稀疏的
A.级别划分较多的属性不会影响模型效果
B.在某些噪音较大的分类或回归问题上不会过拟合
C.每次学习使用不同训练集,一定程度避免过拟合
D.能够处理高纬度的数据,并且不做特征选择
A.向前选择法是从模型中没有自变量开始,然后将所有自变量依次增加到模型中
B.向后剔除法是先对所有自变量拟合线性回归模型,然后依次将所有自变量剔除模型
C.逐步回归法是将向前选择法和向后剔除法结合起来,但不能保证得到的回归模型一定就显著
D.逐步回归法选择变量时,在前面步骤中增加的自变量在后面的步骤中有可能被剔除,而在前面步骤中剔除的自变量在后面的步骤中也可能重新进入到模型中