首页 > 公务员考试
题目内容 (请给出正确答案)
[单选题]

关于L1正则和L2正则下面的说法正确的是()。

A.L2范数可以防止过拟合,提升模型的泛化能力。但L1正则做不到这一点

B.L2正则化标识各个参数的平方的和

C.L2正则化又叫做Lassoregularization

D.L1范数会使权值稀疏

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“关于L1正则和L2正则下面的说法正确的是()。”相关的问题
第1题
关于L1正则和L2正则下面的说法正确的是()

A.L2范数可以防止过拟合,提升模型的泛化能力。但L1正则做不到这一点

B.L2正则化标识各个参数的平方的和的开方值

C.L2正则化有个名称叫“Lassoregularization”

D.L1范数会使权值稀疏

点击查看答案
第2题
关于L1、L2正则化下列说法正确的是()。

A.L2正则化能防止过拟合,提升模型的泛化能力,但L1做不到这点

B.L2正则化技术又称为LassoRegularization

C.L1正则化得到的解更加稀疏

D.L2正则化得到的解更加稀疏

点击查看答案
第3题
下列关于正则化说法错误的是()。

A.L1正则化可以用于特征选择

B.L1正则化和L2正则化可以减少过拟合

C.Lp正则化不能减少过拟合

D.L1正则化和L2正则化可以看成是损失函数的惩罚项

点击查看答案
第4题
下列关于正则化的描述错误的是()。

A.L1范数和L2范数都有助于降低过拟合的风险

B.基于L1正则化的学习方法是一种典型的嵌入式特征选择方法

C.L1范数正则化更容易得到“稀疏”解

D.L2范数正则化更容易得到“稀疏”解

点击查看答案
第5题
下列关于L1正则化与L2正则化描述错误的是()。

A.L1范数正则化有助于降低过拟合风险

B.L2范数正则化有助于降低过拟合风险

C.L1范数正则化比L2范数正则化更有易于获得稀疏解

D.L2范数正则化比L1范数正则化更有易于获得稀疏解

点击查看答案
第6题
机器学习中L1正则化和L2正则化的区别是()。

A.使用L1可以得到稀疏的权值,使用L2可以得到平滑的权值

B.使用L1可以得到平滑的权值,使用L2可以得到平滑的权值

C.使用L1可以得到平滑的权值,使用L2可以得到稀疏的权值

D.使用L1可以得到稀疏的权值,使用L2可以得到稀疏的权值

点击查看答案
第7题
模型训练中避免过拟合的策略有哪些()。

A.提前停止训练

B.Dropout

C.延迟停止训练

D.L2,L1正则

点击查看答案
第8题
关于Dropout说法正确的是:()。

A.Dropout背后的思想其实就是把DNN当做一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN

B.DNN网络将Dropout率设置为p,也就是说,一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0

C.丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。因为这个原因,所以每一次训练,它都像是在训练一个新的网络

D.Dropout方法通常和L2正则化或者其他参数约束技术(比如MaxNorm)一起使用,来防止神经网络的过拟合

点击查看答案
第9题
下面哪个选项不是神经网络训练过程中过拟合的防止方法()?

A.增加学习率

B.L2正则化

C.dropout

D.提前终止

点击查看答案
第10题
假如使用一个较复杂的岭回归模型 (Ridge Regression)来拟合样本数据时,通过调整正则化参数λ,来调整模型复杂度。当λ较大时,关于偏差(bias)和方差(variance),下列说法正确的是()

A.当λ增大时,偏差减小,方差减小

B.当λ增大时,偏差减小,方差增大

C.当λ增大时,偏差增大,方差减小

D.当λ增大时,偏差增大,方差增大

点击查看答案
第11题
关于梯度消散/爆炸问题下列说法不正确的是()。

A.控制网络层数可以一定程度上减少梯度消失的问题

B.可能采用了不合适的激活函数

C.剪切梯度,正则化能防止梯度消散

D.使用残差网络可以减少梯度消散的问题

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改