首页 > 学历类考试
题目内容 (请给出正确答案)
[单选题]

以下跟RNN相关的是()。

A.梯度消失

B.时间步

C.梯度爆炸

D.以上答案都正确

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“以下跟RNN相关的是()。”相关的问题
第1题

下列关于RNN、LSTM、GRU说法正确的是()。

A.RNN引入了循环的概念

B.LSTM可以防止梯度消失或者爆炸

C.GRU是LSTM的变体

D.RNN、LSTM、GRU是同一神经网络的不同说法,没有区别

点击查看答案
第2题
长短时记忆神经网络被设计用来解决什么问题()。

A.传统RNN存在的梯度消失/爆炸问题

B.传统RNN计算量大的问题

C.传统RNN速度较慢的问题

D.传统RNN容易过过拟合的问题

点击查看答案
第3题
为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()。

A.使用sigmod函数容易出现梯度消失

B.sigmod的导数形式较为复杂

C.双曲正切更简单

D.sigmoid函数实现较为复杂

点击查看答案
第4题
深度学习中如果神经网络的层数较多比较容易出现梯度消失问题,严格意义上来讲是在以下哪个环节出现梯度消失问题?()

A.正向传播更新参数

B.正向传播计算结果

C.反向传播更新参数

D.反向传播计算结果

点击查看答案
第5题
以下哪些激活函数容易产生梯度消失问题?()

A.Sigmoid

B.Softplus

C.Tanh

D.ReLU

点击查看答案
第6题
关于梯度消失和梯度消失,以下说法正确的是:()。

A.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0

B.可以采用ReLU激活函数有效的解决梯度消失的情况

C.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大

D.可以通过减小初始权重矩阵的值来缓解梯度爆炸

点击查看答案
第7题
对于卷积神经网络而言,减少梯度消失不适合采用以下哪些方法()?

A.增大学习率

B.减少网络深度(隐层个数)

C.skipconnection

D.减少通道数

点击查看答案
第8题
以下哪一种是神经网络?()

A.RNN(递归神经网络)

B.LSTM(长期短期记忆网络)

C.受限玻尔兹曼机(RBM)

D.以上均是

点击查看答案
第9题
在深度学习中,下列对于sigmoid函数的说法,错误的是()。

A.存在梯度爆炸的问题

B.不是关于原点对称

C.计算exp比较耗时

D.存在梯度消失的问题

点击查看答案
第10题
以下跟图像处理相关的是()。

A.图像识别

B.人脸识别

C.视频分析

D.nlp

点击查看答案
第11题
如果深度学习神经网络出现了梯度消失或梯度爆炸问题我们常用的解决方法为:()

A.随机欠采样

B.梯度剪切

C.正则化

D.使用Relu激活函数

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改