![](https://static.youtibao.com/asksite/comm/h5/images/m_q_title.png)
关于L1正则和L2正则下面的说法正确的是()。
A.L2范数可以防止过拟合,提升模型的泛化能力。但L1正则做不到这一点
B.L2正则化标识各个参数的平方的和
C.L2正则化又叫做Lassoregularization
D.L1范数会使权值稀疏
![](https://static.youtibao.com/asksite/comm/h5/images/solist_ts.png)
A.L2范数可以防止过拟合,提升模型的泛化能力。但L1正则做不到这一点
B.L2正则化标识各个参数的平方的和
C.L2正则化又叫做Lassoregularization
D.L1范数会使权值稀疏
A.L2范数可以防止过拟合,提升模型的泛化能力。但L1正则做不到这一点
B.L2正则化标识各个参数的平方的和的开方值
C.L2正则化有个名称叫“Lassoregularization”
D.L1范数会使权值稀疏
A.L2正则化能防止过拟合,提升模型的泛化能力,但L1做不到这点
B.L2正则化技术又称为LassoRegularization
C.L1正则化得到的解更加稀疏
D.L2正则化得到的解更加稀疏
A.L1正则化可以用于特征选择
B.L1正则化和L2正则化可以减少过拟合
C.Lp正则化不能减少过拟合
D.L1正则化和L2正则化可以看成是损失函数的惩罚项
A.L1范数和L2范数都有助于降低过拟合的风险
B.基于L1正则化的学习方法是一种典型的嵌入式特征选择方法
C.L1范数正则化更容易得到“稀疏”解
D.L2范数正则化更容易得到“稀疏”解
A.L1范数正则化有助于降低过拟合风险
B.L2范数正则化有助于降低过拟合风险
C.L1范数正则化比L2范数正则化更有易于获得稀疏解
D.L2范数正则化比L1范数正则化更有易于获得稀疏解
A.使用L1可以得到稀疏的权值,使用L2可以得到平滑的权值
B.使用L1可以得到平滑的权值,使用L2可以得到平滑的权值
C.使用L1可以得到平滑的权值,使用L2可以得到稀疏的权值
D.使用L1可以得到稀疏的权值,使用L2可以得到稀疏的权值
A.Dropout背后的思想其实就是把DNN当做一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN
B.DNN网络将Dropout率设置为p,也就是说,一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0
C.丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。因为这个原因,所以每一次训练,它都像是在训练一个新的网络
D.Dropout方法通常和L2正则化或者其他参数约束技术(比如MaxNorm)一起使用,来防止神经网络的过拟合
A.当λ增大时,偏差减小,方差减小
B.当λ增大时,偏差减小,方差增大
C.当λ增大时,偏差增大,方差减小
D.当λ增大时,偏差增大,方差增大
A.控制网络层数可以一定程度上减少梯度消失的问题
B.可能采用了不合适的激活函数
C.剪切梯度,正则化能防止梯度消散
D.使用残差网络可以减少梯度消散的问题