首页 > 学历类考试
题目内容 (请给出正确答案)
[单选题]

以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和…”相关的问题
第1题
下列哪一项不是激活函数()

A.batchnormalization

B.sigmoid

C.relu

D.tanh

点击查看答案
第2题
以下可以用于神经网络的激活函数是()

A.Simoid函数

B.Tanh函数

C.Relu函数

D.Sum函数

点击查看答案
第3题
以下哪些激活函数容易产生梯度消失问题?()

A.Sigmoid

B.Softplus

C.Tanh

D.ReLU

点击查看答案
第4题
下列哪一项在神经网络中引入了非线性()

A.随机梯度下降

B.修正线性单元(ReLU)

C.卷积函数

D.以上都不正确

点击查看答案
第5题
假设我们有一个使用ReLU激活函数的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数吗?()

A.可以

B.不好说

C.不一定

D.不能

点击查看答案
第6题
ReLU激活函数具有计算简单、能减小网络训练难度和缓解过拟合问题的优点。()
点击查看答案
第7题
如果深度学习神经网络出现了梯度消失或梯度爆炸问题我们常用的解决方法为:()

A.随机欠采样

B.梯度剪切

C.正则化

D.使用Relu激活函数

点击查看答案
第8题
下列哪一项不是递归神经网络所需的模块()

A.全连接层

B.激活函数

C.drop-out

D.池化层

点击查看答案
第9题
下面哪一项不属于热致液晶()。

A.近晶相

B.向列相

C.胆甾相

D.螺距相

点击查看答案
第10题
‍下列哪一项不属于Ⅰ相反应?()‎

A.水解反应

B.葡萄糖醛酸结合

C.氧化反应

D.还原反应

点击查看答案
第11题
下列哪一项不属于过饱和固溶体的沉淀过程()。

A.溶质原子的偏聚阶段

B.偏聚区有序化阶段

C.中间相阶段

D.平衡阶段

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改