A.共享权重
B.dropout
C.Relu激活函数和重叠池化
D.双GPU训练(分组卷积)
第1题
A.使用修正的线性单元(ReLU)作为非线性激活函数
B.在训练的时候使用Dropout技术有选择地忽视单个神经元,以避免模型过拟合
C.覆盖进行较大池化,避免平均池化的平均化效果
D.使用GPUNVIDIAGTX580减少训练时间
第3题
A.使用增加训练次数的方法不一定可以减少代价函数的取值
B.神经网络权重的初始化大小会对网络的训练结果无影响
C.对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素
D.分析问题确定后,神经网络合适的结构就可以确定
第4题
A.神经网络神经元的输出都是传给其他神经元,不能再反馈回来
B.神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化
C.均方差损失函数是神经网络常用的一种代价函数(损失函数)
D.神经网络不同层次的神经元可以使用不同的激活函数
第5题
A、感知器模型中的激活函数是二值函数时,损失函数是可导的
B、感知器模型的关键,就是通过调整权重使一类样本可以激活神经元,而另一类则不会
C、重调整采用“奖惩分明”策略,即对于能够准确判断样本类型的权重,提高当前权重比例,反之则降低当前权重比例
D、一层感知器只能针对线性可分的数据集分类,无法解决异或(XOR)问题
第6题
A.权重衰减通过赋予神经元某个权值从而避免梯度消失
B.当数据集中有噪声时,权重衰减可以在训练中逐渐修正神经网络的权重
C.权重衰减是一种正则化技术,通过惩罚绝对值较大的模型参数为需要学习的模型增加了限制
D.权重衰减是在训练过程中逐渐减少学习率
第8题
A.权重和偏置都可以取全零初始化
B.使用正态分布初始化,但权重取太大或太小都会影响网络的训练
C.Xavier初始化可以减少梯度消失
D.合适的权重初始化可以加快神经网络的训练和效果
第9题
A.隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新
B.神经元处于Sigmoid等激活函数的饱和区工作,梯度值偏小
C.隐藏层神经元的个数太多导致
D.隐层的权重取值大容易导致梯度消失
第10题
A.ReLU函数的输出是非零中心化的,给后一层的神经网络引入偏置偏移,会影响梯度下降的效率
B.ReLU神经元在训练时比较容易“死亡”.在训练时,如果参数在一次不恰当的更新后,第一个隐藏层中的某个ReLU神经元在所有的训练数据上都不能被激活,那么这个神经元自身参数的梯度永远都会是0,在以后的训练过程中永远不能被激活.
C.LeakyReLU在输入时,保持一个很小的梯度,这样当神经元非激活时也能有一个非零的梯度可以更新参数,这在一定程度上缓解了梯度消失问题
D.三个选项均正确
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!