欢迎来到牛牛题库网 牛牛题库官网
logo
全部科目 > 大学试题 > 计算机科学 > 人工智能

单项选择题

SGD和Adam的优化方法有什么区别?()

A.SGD只考虑一阶梯度,而Adam结合了一阶动量和二阶动量
B.Adam只考虑一阶梯度,而SGD基于动量梯度方法
C.SGD和Adam都只使用一阶梯度
D.SGD和Adam都考虑二阶梯度

点击查看答案&解析
微信小程序免费搜题
微信扫一扫,加关注免费搜题

微信扫一扫,加关注免费搜题