判断题
正确
A.当预测错误时,损失函数值为0 B.预测正确时,损失函数值为1 C.当预测错误时,损失函数值为1 D.预测正确时,损失函数值为0
A.可以并行地生成Gradient Roosting Trees单个树,因为它们之间是没有依赖的 B.这两个模型都使用随机特征子集,来生成许多单个的树 C.在随机森林的单个树中,树和树之间是有依赖的而Gradient Bosting Trees中的单个树之间是没有依赖的 D.Gradient Boosting Trees训练模型的表现模是比随机森林好
A.MBGD算法的诞生是为了解决随机梯度下降(SGD)的缺点 B.EGD算法的诞生是为了解决批量梯度下降(BGD)的缺点 C.MBGD算法最终参数训练的准确率保证性较好 D.MBGD算法的训练过程相对BGD和SGD比较快
微信扫一扫,加关注免费搜题