首页 > 公务员考试
题目内容 (请给出正确答案)
[多选题]

假设在一个深度学习网络中,批量梯度下降花费了大量时间时来找到一组参数值,使成本函数小。以下哪些方法可以帮助找到值较小的参数值?()

A.令所有权重值初始化为0

B.尝试调整学习率

C.尝试mini-batch梯度下降

D.尝试对权重进行更好的随机初始化

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“假设在一个深度学习网络中,批量梯度下降花费了大量时间时来找到…”相关的问题
第1题
假设在训练一个模型的时候,发现靠近输入层的网络层参数基本不更新,请问是什么原因?()

A.梯度消失

B.梯度爆炸

C.过拟合

D.以上都不是

点击查看答案
第2题
在深度学习中,我们经常会遇到收敛到localminimum,下面不属于解决localminimum问题的方法是()。

A.随机梯度下降

B.设置Momentum

C.设置不同初始值

D.增大batchsize

点击查看答案
第3题
下列关于深度学习中优化问题说法错误的是()。

A.当优化问题的数值解接近局部最优值时,随着目标函数解的梯度接近或变为零,通过最终迭代获得的数值解可能仅使目标函数局部最优,而不是全局最优

B.在深度学习优化问题中,经常遇到的是梯度爆炸或梯度消失

C.优化问题中设置的学习率决定目标函数能否收敛到局部最小值,以及何时收敛到最小值

D.一般来说,小批量随机梯度下降比随机梯度下降和梯度下降的速度慢,收敛风险较大

点击查看答案
第4题
下面对梯度下降方法描述不正确的是()。

A.梯度方向是函数值下降最快方向

B.梯度下降算法是一种使得损失函数最小化的方法

C.梯度下降算法用来优化深度学习模型的参数

D.梯度反方向是函数值下降最快方向

点击查看答案
第5题
对于卷积神经网络而言,减少梯度消失不适合采用以下哪些方法()?

A.增大学习率

B.减少网络深度(隐层个数)

C.skipconnection

D.减少通道数

点击查看答案
第6题
在深度学习中,下列对于sigmoid函数的说法,错误的是()。

A.存在梯度爆炸的问题

B.不是关于原点对称

C.计算exp比较耗时

D.存在梯度消失的问题

点击查看答案
第7题
当你使用20轮的梯度下降,选择学习率为0.3,并且每轮计算损失J,当你发现J一直上涨时,下面哪些结论看起来比较靠谱()

A.学习率为0.3是一个非常好的选择

B.可以考虑使用更大的学习率1.0

C.可以考虑使用较小的学习率0.1

D.以上全部不正确

点击查看答案
第8题
在梯度下降的情况下,以下哪个说法是错误的?()

A.如果学习率很小,则优化成本函数将花费大量时间

B.如果学习率非常高,则梯度下降可能永远不会收敛

C.学习率是使用损失函数导数和步长来计算的

D.学习率是梯度下降算法中的超参数

点击查看答案
第9题
深度学习中如果神经网络的层数较多比较容易出现梯度消失问题,严格意义上来讲是在以下哪个环节出现梯度消失问题?()

A.正向传播更新参数

B.正向传播计算结果

C.反向传播更新参数

D.反向传播计算结果

点击查看答案
第10题
下面关于经典的卷积神经网络说法错误的是()。

A.AlexNet的网络结构和LeNet非常类似,但更深更大,并且使用了层叠的卷积层来获取特征

B.GoogLeNet的主要贡献是实现了一个bottleneck模块,能够显著地减少网络中参数的数量

C.ResNet使用了特殊的跳跃链接,大量使用了批量归一化,并在最后使用了全连接层

D.VGGNet的主要贡献是展示出网络的深度是算法优良性能的关键部分

点击查看答案
第11题
反向传播算法是深度学习神经网络中重要的算法,关于其算法步骤正确的是()。

A.先反向传播计算出误差,再正向传播计算梯度

B.只有反向传播计算梯度

C.只有反向传播计算输出结果

D.先正向传播计算出误差,再反向传播计算梯度

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改