A.使用修正的线性单元(ReLU)作为非线性激活函数
B.在训练的时候使用Dropout技术有选择地忽视单个神经元,以避免模型过拟合
C.覆盖进行较大池化,避免平均池化的平均化效果
D.使用GPUNVIDIAGTX580减少训练时间
第4题
A.使用较小的卷积,并统一卷积核的大小
B.使用定点计算的神经网络代替浮点运算
C.使用ReLU作为非线性激发函数
D.增加网络的深度
第5题
A.激活函数需要具有线性可微的特点
B.Sigmoid函数的导数是非零的,很容易计算
C.Sigmoid函数的输出值域是对称的
D.ReLU函数主要缺点是相比于Sigmoid、Tanh函数其计算低效
第6题
B.ReLU神经元在训练时比较容易“死亡”.在训练时,如果参数在一次不恰当的更新后,第一个隐藏层中的某个ReLU神经元在所有的训练数据上都不能被激活,那么这个神经元自身参数的梯度永远都会是0,在以后的训练过程中永远不能被激活.
C.LeakyReLU在输入时,保持一个很小的梯度,这样当神经元非激活时也能有一个非零的梯度可以更新参数,这在一定程度上缓解了梯度消失问题
D.三个选项均正确
第7题
A.神经网络可以实现线性分类
B.神经网络可以实现非线性分类
C.神经网络的每层神经元激活函数值阈必须在[-1,1]
D.神经网络的每层神经元激活函数必须相同
第8题
A.交叉熵也可以作为分类预测问题的损失函数
B.在使用梯度下降时,加上冲量项会减少训练的速度,但可能会增加陷入局部极小值的可能
C.与批量梯度下降法相比,使用小批量梯度下降法可以降低训练速度,但达到全局最优解可能需要更多的迭代次数
D.神经元的激活函数选择不影响神经网络的训练过程和最终性能
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!