多项选择题
A.当预测错误时,损失函数值为0 B.预测正确时,损失函数值为1 C.当预测错误时,损失函数值为1 D.预测正确时,损失函数值为0
对于随机森林和Gradient Bosting Trees.下面说法正确的是()A.可以并行地生成Gradie...
单项选择题对于随机森林和Gradient Bosting Trees.下面说法正确的是()
A.可以并行地生成Gradient Roosting Trees单个树,因为它们之间是没有依赖的 B.这两个模型都使用随机特征子集,来生成许多单个的树 C.在随机森林的单个树中,树和树之间是有依赖的而Gradient Bosting Trees中的单个树之间是没有依赖的 D.Gradient Boosting Trees训练模型的表现模是比随机森林好
以下关于小批量梯度无降(Mini-Batch Gradient Descent--BGD)算法的描述正确的是(...
多项选择题以下关于小批量梯度无降(Mini-Batch Gradient Descent--BGD)算法的描述正确的是()
A.MBGD算法的诞生是为了解决随机梯度下降(SGD)的缺点 B.EGD算法的诞生是为了解决批量梯度下降(BGD)的缺点 C.MBGD算法最终参数训练的准确率保证性较好 D.MBGD算法的训练过程相对BGD和SGD比较快
我们想在大数据集上训练决策树,为了使用较少时间,我们可以()A.减少树的数量B.增加树的深度C.减少树的深度D...
单项选择题我们想在大数据集上训练决策树,为了使用较少时间,我们可以()
A.减少树的数量 B.增加树的深度 C.减少树的深度 D.增加学习率(1earning rate)