A.权重衰减通过赋予神经元某个权值从而避免梯度消失
B.当数据集中有噪声时,权重衰减可以在训练中逐渐修正神经网络的权重
C.权重衰减是一种正则化技术,通过惩罚绝对值较大的模型参数为需要学习的模型增加了限制
D.权重衰减是在训练过程中逐渐减少学习率
第1题
第2题
A.通过正则化可以减少网络参数的个数,一定程度可能增加过拟合
B.利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合
C.在神经网络训练过程中类似dropout减少神经元或相关链接权的数量
D.通过增加数据扰动的数据增强减少了神经网络的过拟合
第3题
A.隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新
B.神经元处于Sigmoid等激活函数的饱和区工作,梯度值偏小
C.隐藏层神经元的个数太多导致
D.隐层的权重取值大容易导致梯度消失
第4题
A.加权平均值的计算方法是“对不同分析数据赋予不同的权重值后,再计算其平均值”
B.加权平均值一般在人力资源绩效考核里面用到
C.给数值赋予权重的时候,越重要赋予的权重越大
D.给数值赋予权重的时候,越重要赋予的权重越小
第5题
A、感知器模型中的激活函数是二值函数时,损失函数是可导的
B、感知器模型的关键,就是通过调整权重使一类样本可以激活神经元,而另一类则不会
C、重调整采用“奖惩分明”策略,即对于能够准确判断样本类型的权重,提高当前权重比例,反之则降低当前权重比例
D、一层感知器只能针对线性可分的数据集分类,无法解决异或(XOR)问题
第6题
A.当具有多个网关时,依据优先级的高低来选择网关,数字越大优先级越高
B.下一跳有多条时,根据优先级分配数据。优先级越高,分配的会话数越多
C.当具有多个网关时,依据权重值的高低来选择网关,数字越小优先级越高
D.下一跳有多条时,根据权重分配数据。权重越大,分配的会话数越多(值越小优先级
第8题
A.这不会对训练产生影响。只要随机初始化权重,梯度下降不受权重大小的影响。
B.这会导致tanh的输入也非常大,从而使梯度也变大。因此,你必须将学习率α设置得非常小以防止发散。这会减慢网络参数学习速度。
C.这会导致tanh的输入也非常大,从而使梯度接近于零,优化算法将因此变得缓慢。
D.这会导致tanh的输入也非常大,导致神经元被“高度激活”,从而加快了学习速度。
第9题
A.BP神经网络的训练过程中,先进行后向传播再进行前向传播
B.通过损失函数对后向传播结果进行判定
C.通过前向传播过程对权重参数进行修正
D.训练过程中权值参数的运算量很大,一般采用梯度下降法
第10题
A.ReLU函数的输出是非零中心化的,给后一层的神经网络引入偏置偏移,会影响梯度下降的效率
B.ReLU神经元在训练时比较容易“死亡”.在训练时,如果参数在一次不恰当的更新后,第一个隐藏层中的某个ReLU神经元在所有的训练数据上都不能被激活,那么这个神经元自身参数的梯度永远都会是0,在以后的训练过程中永远不能被激活.
C.LeakyReLU在输入时,保持一个很小的梯度,这样当神经元非激活时也能有一个非零的梯度可以更新参数,这在一定程度上缓解了梯度消失问题
D.三个选项均正确
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!