A.向前选择法是从模型中没有自变量开始,然后将所有自变量依次增加到模型中
B.向后剔除法是先对所有自变量拟合线性回归模型,然后依次将所有自变量剔除模型
C.逐步回归法是将向前选择法和向后剔除法结合起来,但不能保证得到的回归模型一定就显著
D.逐步回归法选择变量时,在前面步骤中增加的自变量在后面的步骤中有可能被剔除,而在前面步骤中剔除的自变量在后面的步骤中也可能重新进入到模型中
A.增加自变量后,模型包含的信息量增多,多重判定系数会随着自变量的增加而无限变大
B.增加自变量后,模型的预测误差会变小,从而减少残差平方和,此时回归平方和会变大
C.增加自变量后,各个自变量之前的相关关系更加紧密
D.增加自变量后,能使得所有自变量的系数显著
A.在严重多重共线性下,OLS估计量仍是最正确线性无偏估计量
B.多重共线性问题的实质是样本现象,因此可以通过增加样本信息得到改善
C.虽然多重共线性下,很难准确区分各个解释变量的单独影响,但可据此模型进展预测
D.如果回归模型存在严重的多重共线性,可不加分析地去掉某个解释变量从而消除多重共线性