首页 > 公务员考试
题目内容 (请给出正确答案)
[单选题]

训练一个RNN网络,如果权重与激活值都是NaN,下列选项中,哪一个是导致这个问题的最有可能的原因()。

A.梯度消失

B.梯度爆炸

C.ReLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了

D.Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“训练一个RNN网络,如果权重与激活值都是NaN,下列选项中,…”相关的问题
第1题
假设你正在训练一个LSTM网络,你有一个10,000词的词汇表,并且使用一个激活值维度为100的LSTM块,在每一个时间步中,Γu的维度是多少()。

A.1

B.100

C.300

D.10000

点击查看答案
第2题
假设你正在训练一个LSTM网络,你有一个10,000词的词汇表,并且使用一个激活值维度为100的LSTM块,在每一个时间步中,Γu的维度是多少()

A.*

B.1

C.10

D.30010000

点击查看答案
第3题
有关神经网络训练过程的说法,正确的是()?

A.使用增加训练次数的方法不一定可以减少代价函数的取值

B.神经网络权重的初始化大小会对网络的训练结果无影响

C.对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素

D.分析问题确定后,神经网络合适的结构就可以确定

点击查看答案
第4题
以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

点击查看答案
第5题
为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()。

A.使用sigmod函数容易出现梯度消失

B.sigmod的导数形式较为复杂

C.双曲正切更简单

D.sigmoid函数实现较为复杂

点击查看答案
第6题
在许多应用场景,需要计算速度快和功耗低,例如:自动驾驶,因此需要专用的AI芯片,而不是CPU和GPU芯片,下列说法正确的是()。
A.CPU,GPU芯片都是通用型芯片,运行速度慢,功耗大,不适于AI应用

B.AI芯片只能运行特定的AI算法,包括:图像识别等领域的CNN卷积网络,语音识别、自然语言处理领域的RNN算法

C.开发AI应用通常包括模型训练和推理两个部分,两者都需要极高的算力和低微的功耗

D.AI芯片是指针对AI算法的专用芯片(Application Specific Integrated Circuit,ASIC),针对AI算法,设计指令集,具有速度快,功耗低的特点

点击查看答案
第7题
关于梯度消失和梯度消失,以下说法正确的是:()。

A.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0

B.可以采用ReLU激活函数有效的解决梯度消失的情况

C.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大

D.可以通过减小初始权重矩阵的值来缓解梯度爆炸

点击查看答案
第8题
下面关于免费AP报文的作用描述错误的是()。

A.在VRP备份组中用来通告主备发生变换

B.用于通告一个新的现AC地址:发送方更换网卡,AC地址发生改变,为了能够在AP表项老化前通告所有主机,发送方可以发送一个免费ARP

C.用于检查重复的IP地址:正常情况下不会收到ARP回应,如果收到,则表明本网络中存在与自身P地址重复的地址

D.免费ARP报文用来在主机空闲时与网关设备保持激活

点击查看答案
第9题
关于反向传播,以下说法错误的是?()

A.反向传播只能在前馈神经网络中运用

B.反向传播会经过激活函数

C.反向传播可以结合梯度下降算法更新网络权重

D.反向传播指的是误差通过网络反向传播

点击查看答案
第10题
下列关于RNN说法正确的是()。

A.RNN可以应用在NLP领域

B.LSTM是RNN的一个变种

C.在RNN中一个序列当前的输出与前面的输出也有关

D.以上答案都正确

点击查看答案
第11题
关于Dropout说法正确的是:()。

A.Dropout背后的思想其实就是把DNN当做一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN

B.DNN网络将Dropout率设置为p,也就是说,一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0

C.丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。因为这个原因,所以每一次训练,它都像是在训练一个新的网络

D.Dropout方法通常和L2正则化或者其他参数约束技术(比如MaxNorm)一起使用,来防止神经网络的过拟合

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改