第3题
A.传统的BP网络一般都选用二级网络
B.BP网络是一种后馈网络
C.基本BP算法包括信号的前向传播和误差的反向传播两个过程
D.BP神经网络学习算法最核心的三部分是权值调整、输出层连接权调整、隐层连接权调整
第4题
A.BP算法是一种将输出层误差反向传播给隐含层进行参数更新的方法
B.BP算法将误差从后向前传递,获得各层单元所产生误差,进而依据这个误差让各层单元修正各单元参数
C.对前馈神经网络而言,BP算法可调整相邻层神经元之间的连接权重大小
D.在BP算法中,每个神经元单元可包含不可偏导的映射函数
第6题
A.BP神经网络的训练过程中,先进行后向传播再进行前向传播
B.通过损失函数对后向传播结果进行判定
C.通过前向传播过程对权重参数进行修正
D.训练过程中权值参数的运算量很大,一般采用梯度下降法
第7题
A.Adam中的学习率超参数α通常需要调整
B.Adam优化算法常用于批量梯度下降法中,而不是用于随机(小批量)梯度下降法
C.我们经常使用超参数的默认值β1=0.9,β=0.999,∈10-8
D.Adam结合了Rmsprop和动量的优点
第9题
A.随机梯度下降法最终收敛的点不一定是全局最优
B.随机梯度下降法最终收敛的点一定是全局最优
C.无论随机梯度下降法存不存在最终收敛的点,一定可以找到最优解
D.无论随机梯度下降法存不存在最终收敛的点,一定不能找到最优解
第10题
A.梯度方向是函数值下降最快方向
B.梯度下降算法是一种使得损失函数最小化的方法
C.梯度下降算法用来优化深度学习模型的参数
D.梯度反方向是函数值下降最快方向
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!