单项选择题
A.增加正则化惩罚项,降低模型复杂度B.增加隐藏层神经元数目,提高模型效果C.使用更大的学习率,更快地收敛到最优解D.在训练过程中,以一定的概率随机使某些神经元失活,减少过拟合的可能性
SGD和Adam的优化方法有什么区别?()A.SGD只考虑一阶梯度,而Adam结合了一阶动量和二阶动量B.Ad...
单项选择题SGD和Adam的优化方法有什么区别?()
A.SGD只考虑一阶梯度,而Adam结合了一阶动量和二阶动量B.Adam只考虑一阶梯度,而SGD基于动量梯度方法C.SGD和Adam都只使用一阶梯度D.SGD和Adam都考虑二阶梯度
在深度学习中,哪种激活函数通常不存在梯度消失问题,并且计算效率较高?()A.SigmoidB.TanhC.Re...
单项选择题在深度学习中,哪种激活函数通常不存在梯度消失问题,并且计算效率较高?()
A.SigmoidB.TanhC.ReLUD.Softmax
为什么在使用sigmoid作为激活函数时,常用交叉熵损失函数而不用均方差误差损失函数?()A.均方差误差损失函...
单项选择题为什么在使用sigmoid作为激活函数时,常用交叉熵损失函数而不用均方差误差损失函数?()
A.均方差误差损失函数容易陷入局部最优解B.均方差误差损失函数在sigmoid函数下容易导致梯度消失C.因为交叉熵损失函数不适于分类问题D.交叉熵损失函数比均方差误差损失函数计算更简单