欢迎来到牛牛题库网 牛牛题库官网
logo
全部科目 > 大学试题 > 工学 > 电子与通信技术 > 人工神经网络

单项选择题

下面哪种情况会带来神经网络优化求解中的梯度消失的问题?()

A.使用sigmoid作为激活函数
B.使用relu作为激活函数
C.增加LeakRelu层
D.对输入层做批量正则化(BatchNormalization)

点击查看答案&解析

相关考题

单项选择题
要对一批图片进行分类,下面几个神经网络的设计,最好的方案是()。

A.keras.Sequential([keras.Input(shape=(32,0)),keras.layers.Dense(64,activation=”relu”),keras.layers.Dense(128,activation=”relu”),keras.layers.Dense(10,activation=”softmax”)])
B.keras.Sequential([keras.layers.Conv2D(32,3,activation=”relu”),keras.layers.Flatten(),keras.layers.Dense(128,activation=”relu”),keras.layers.Dense(10,activation=”softmax”)])
C.keras.Sequential([keras.layers.Conv2D(32,3,activation=”relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3,activation=”relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3,activation=”relu”),keras.layers.Flatten(),keras.layers.Dense(128,activation=”relu”),keras.layers.Dense(10,activation=”softmax”)])
D.keras.Sequential([keras.layers.Conv2D(32,3),keras.layers.BatchNormalization(),keras.layers.Activation(“relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3),keras.layers.BatchNormalization(),keras.layers.Activation(“relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3,padding=’same’,activation=”relu”),keras.layers.Flatten(),keras.layers.Dense(128,activation=”relu”),keras.layers.Dropout(0.5)keras.layers.Dense(10,activation=”softmax”)])

微信小程序免费搜题
微信扫一扫,加关注免费搜题

微信扫一扫,加关注免费搜题