首页 > 继续教育
题目内容 (请给出正确答案)
[单选题]

Sigmoid函数作为神经元激活函数的特点是()。

A.连续但不光滑

B.不连续但光滑

C.连续且光滑

D.不连续且不光滑

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“Sigmoid函数作为神经元激活函数的特点是()。”相关的问题
第1题
以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

点击查看答案
第2题
阶跃函数与sigmoid函数均为典型激活函数()。

A.正确

B.错误

点击查看答案
第3题
依据函数的曲线分布而命名的S型激活函数中,就是指Sigmoid函数。()
点击查看答案
第4题
DNN常用的激活函数有()。

A.sigmoid

B.tanh

C.ReLU

D.以上答案都正确

点击查看答案
第5题
sigmoid函数只能用于分类,没有激活功能。()
点击查看答案
第6题
下列哪一项不是激活函数()

A.batchnormalization

B.sigmoid

C.relu

D.tanh

点击查看答案
第7题
以下哪些激活函数容易产生梯度消失问题?()

A.Sigmoid

B.Softplus

C.Tanh

D.ReLU

点击查看答案
第8题
为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()。

A.使用sigmod函数容易出现梯度消失

B.sigmod的导数形式较为复杂

C.双曲正切更简单

D.sigmoid函数实现较为复杂

点击查看答案
第9题
激活函数的作用为给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,深层神经网络表达能力更强大,可以应用到众多的非线性模型中。()
点击查看答案
第10题
多层前馈神经网络描述错误的是:()。

A.输出层与输入层之间包含隐含层,且隐含层和输出层都拥有激活函数的神经元

B.神经元之间存在同层连接以及跨层连接

C.输入层仅仅是接收输入,不进行函数处理

D.每层神经元上一层与下一层全互连

点击查看答案
第11题
设计为8层的卷积神经网络AlexNet网络成功使用()函数,其效果远远地超过了Sigmoid函数。

A.ReLU函数

B.sigmoid函数

C.tanh函数

D.sin函数

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改