多项选择题
A.高维稀疏的ID类特征会使树模型的训练变得极为低效B.容易过拟合C.高维稀疏的ID类特征会使树模型的训练变得极为高效D.容易欠拟合
GBDT常用损失函数有哪些()A.MSE(Mean Square Error)均方误差B.RMSE(Root ...
多项选择题GBDT常用损失函数有哪些()
A.MSE(Mean Square Error)均方误差B.RMSE(Root Mean Square Error)均方根误差C.MAE(Mean Absolute Error)平均绝对误差D.Huber Loss(MAE和MSE结合)
每个算法都会有缺点,对于集成学习GBDT的缺点是什么()A.预测阶段的计算速度快,树与树之间可并行化计算B.G...
单项选择题每个算法都会有缺点,对于集成学习GBDT的缺点是什么()
A.预测阶段的计算速度快,树与树之间可并行化计算B.GBDT在高维稀疏的数据集上,表现不如支持向量机或者神经网络C.在分布稠密的数据集上,泛化能力和表达能力都很好,这使得GBDT在Kaggle的众多竞赛中,经常名列榜首D.采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自动发现特征间的高阶关系
GBDT属于集成学习,因此它拥有哪些优点()A.采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性...
单项选择题GBDT属于集成学习,因此它拥有哪些优点()
A.采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自动发现特征间的高阶关系B.GBDT在高维稀疏的数据集上,表现不如支持向量机或者神经网络C.GBDT在处理文本分类特征问题上,相对其他模型的优势不如它在处理数值特征时明显D.训练过程需要串行训练,只能在决策树内部采用一些局部并行的手段提高训练速度