![](https://static.youtibao.com/asksite/comm/h5/images/m_q_title.png)
假如使用一个较复杂的岭回归模型 (Ridge Regression)来拟合样本数据时,通过调整正则化参数λ,来调整模型复杂度。当λ较大时,关于偏差(bias)和方差(variance),下列说法正确的是()
A.当λ增大时,偏差减小,方差减小
B.当λ增大时,偏差减小,方差增大
C.当λ增大时,偏差增大,方差减小
D.当λ增大时,偏差增大,方差增大
![](https://static.youtibao.com/asksite/comm/h5/images/m_q_a.png)
C、当λ增大时,偏差增大,方差减小
![](https://static.youtibao.com/asksite/comm/h5/images/solist_ts.png)
A.当λ增大时,偏差减小,方差减小
B.当λ增大时,偏差减小,方差增大
C.当λ增大时,偏差增大,方差减小
D.当λ增大时,偏差增大,方差增大
C、当λ增大时,偏差增大,方差减小
A.特征X1很可能被排除在模型之外
B.特征X1很可能还包含在模型之中
C.无法确定特征X1是否被舍
D.以上答案都不正确
A.在λ非常小的情况下,偏差低,方差低
B.在λ非常小的情况下,偏差低,方差高
C.在λ非常小的情况下,偏差高,方差低
D.在λ非常小的情况下,偏差低,方差低
A.移除两个共线变量
B.不移除两个变量,而是移除一个
C.移除相关变量可能会导致信息损失,可以使用带罚项的回归模型(如ridge或lassoregression)
A.降低学习率,减少迭代次数
B.降低学习率,增加迭代次数
C.提高学习率,增加迭代次数
D.增加学习率,减少迭代次数
A.剔除所有的共线性变量
B.剔除共线性变量中的一个
C.通过计算方差膨胀因子(VarianceInflationFactor,VIF)来检查共线性程度,并采取相应措施
D.删除相关变量可能会有信息损失,我们可以不删除相关变量,而使用一些正则化方法来解决多重共线性问题,例如Ridge或Lasso回归
A.如果R-Squared增加,则这个特征有意义
B.如果R-Squared减小,则这个特征没有意义
C.仅看R-Squared单一变量,无法确定这个特征是否有意义。
D.以上说法都不对
A.除去神经网络中的最后一层,冻结所有层然后重新训练
B.对神经网络中的最后几层进行微调,同时将最后一层(分类层)更改为回归层
C.使用新的数据集重新训练模型
D.所有答案均不对
A.除去神经网络中的最后一层,冻结所有层然后重新训练
B.对神经网络中的最后几层进行微调,同时将最后一层(分类层)更改为回归层
C.使用新的数据集重新训练模型
D.所有答案均不对
A.级别划分较多的属性不会影响模型效果
B.在某些噪音较大的分类或回归问题上不会过拟合
C.每次学习使用不同训练集,一定程度避免过拟合
D.能够处理高纬度的数据,并且不做特征选择