题目内容
(请给出正确答案)
[单选题]
下列选项中关于随机梯度下降法的说法,正确的是()
A.随机梯度下降法最终收敛的点不一定是全局最优
B.随机梯度下降法最终收敛的点一定是全局最优
C.无论随机梯度下降法存不存在最终收敛的点,一定可以找到最优解
D.无论随机梯度下降法存不存在最终收敛的点,一定不能找到最优解
查看答案
如果结果不匹配,请 联系老师 获取答案
A.随机梯度下降法最终收敛的点不一定是全局最优
B.随机梯度下降法最终收敛的点一定是全局最优
C.无论随机梯度下降法存不存在最终收敛的点,一定可以找到最优解
D.无论随机梯度下降法存不存在最终收敛的点,一定不能找到最优解
A.负梯度方向是使函数值下降最快的方向
B.当目标函数是凸函数时,梯度下降法的解是全局最优解
C.梯度下降法比牛顿法收敛速度快
D.拟牛顿法不需要计算Hesse矩阵
A.负梯度方向是使函数值下降最快的方向
B.当目标函数是凸函数时,梯度下降法的解是全局最优解
C.梯度下降法比牛顿法收敛速度快
D.拟牛顿法不需要计算Hesse矩阵
A.多项式阶数
B.更新权重w时,使用的是矩阵求逆
C.使用常数项
D.使用梯度下降法
A.当优化问题的数值解接近局部最优值时,随着目标函数解的梯度接近或变为零,通过最终迭代获得的数值解可能仅使目标函数局部最优,而不是全局最优
B.在深度学习优化问题中,经常遇到的是梯度爆炸或梯度消失
C.优化问题中设置的学习率决定目标函数能否收敛到局部最小值,以及何时收敛到最小值
D.一般来说,小批量随机梯度下降比随机梯度下降和梯度下降的速度慢,收敛风险较大
A.RNN的隐层神经元的输入包括其历史各个时间点的输出
B.RNN比较擅长处理时序数据,例如文本的分析
C.在各个时间点,RNN的输入层与隐层之间、隐层与输出层之间以及相邻时间点之间的隐层权重是共享的,因为不同时刻对应同一个网络
D.RNN的损失函数度量所有时刻的输入与理想输出的差异,需要使用梯度下降法调整参数不断降低损失函数