问答题

简答题 如果在最后一层中,我们先使用ReLU激活函数,然后再使用Sigmoid函数,会怎样?

【参考答案】

由于ReLU始终会输出非负结果,因此该神经网络会将所有输入预测成同一个类别。