以下说法中,不符合概率权重函数的是()。
A.人们赋予小概率事件以相对较高的心理权重
B.对于大概率的事件,人们反而给予相对较低的重视程度
C.面对小概率的收益,大部分人表现出风险寻求
D.面对小概率的损失,大部分人表现出风险寻求
A.人们赋予小概率事件以相对较高的心理权重
B.对于大概率的事件,人们反而给予相对较低的重视程度
C.面对小概率的收益,大部分人表现出风险寻求
D.面对小概率的损失,大部分人表现出风险寻求
A.反向传播只能在前馈神经网络中运用
B.反向传播会经过激活函数
C.反向传播可以结合梯度下降算法更新网络权重
D.反向传播指的是误差通过网络反向传播
A.RNN的隐层神经元的输入包括其历史各个时间点的输出
B.RNN比较擅长处理时序数据,例如文本的分析
C.在各个时间点,RNN的输入层与隐层之间、隐层与输出层之间以及相邻时间点之间的隐层权重是共享的,因为不同时刻对应同一个网络
D.RNN的损失函数度量所有时刻的输入与理想输出的差异,需要使用梯度下降法调整参数不断降低损失函数
A.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0
B.可以采用ReLU激活函数有效的解决梯度消失的情况
C.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大
D.可以通过减小初始权重矩阵的值来缓解梯度爆炸
A.令所有权重值初始化为0
B.尝试调整学习率
C.尝试mini-batch梯度下降
D.尝试对权重进行更好的随机初始化
以下哪项是对早期停止(early stop)的最佳描述?()
A.训练网络直到达到误差函数中的局部最小值
B.在每次训练期后在测试数据集上模拟网络,当泛化误差开始增加时停止训练
C.在中心化权重更新中添加一个梯度下降加速算子,以便训练更快地收敛
D.更快的方法是反向传播算法