问答题
简答题
如果在最后一层中,我们先使用ReLU激活函数,然后再使用Sigmoid函数,会怎样?
【参考答案】
由于ReLU始终会输出非负结果,因此该神经网络会将所有输入预测成同一个类别。
点击查看答案
相关考题
