首页 > 公务员考试
题目内容 (请给出正确答案)
[单选题]

下列关于sigmoid激活函数的说法正确的有()。

A.拥有非对称结构

B.输出全为负值

C.输出全为正值

D.输出全部大于

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“下列关于sigmoid激活函数的说法正确的有()。”相关的问题
第1题
下列哪一项不是激活函数()

A.batchnormalization

B.sigmoid

C.relu

D.tanh

点击查看答案
第2题
阶跃函数与sigmoid函数均为典型激活函数()。

A.正确

B.错误

点击查看答案
第3题
DNN常用的激活函数有()。

A.sigmoid

B.tanh

C.ReLU

D.以上答案都正确

点击查看答案
第4题
在深度学习中,下列对于sigmoid函数的说法,错误的是()。

A.存在梯度爆炸的问题

B.不是关于原点对称

C.计算exp比较耗时

D.存在梯度消失的问题

点击查看答案
第5题
依据函数的曲线分布而命名的S型激活函数中,就是指Sigmoid函数。()
点击查看答案
第6题
sigmoid函数只能用于分类,没有激活功能。()
点击查看答案
第7题
以下哪些激活函数容易产生梯度消失问题?()

A.Sigmoid

B.Softplus

C.Tanh

D.ReLU

点击查看答案
第8题
Sigmoid函数作为神经元激活函数的特点是()。

A.连续但不光滑

B.不连续但光滑

C.连续且光滑

D.不连续且不光滑

点击查看答案
第9题
以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

点击查看答案
第10题
为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()。

A.使用sigmod函数容易出现梯度消失

B.sigmod的导数形式较为复杂

C.双曲正切更简单

D.sigmoid函数实现较为复杂

点击查看答案
第11题
逻辑回归将输出概率限定在[0,1]之间。下列哪个函数起到这样的作用()。

A.Sigmoid函数

B.tanh函数

C.ReLU函数

D.LeakyReLU函数

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改