对于非连续目标在深度神经网络的优化过程中,下面哪种梯度下降方法是最好的?()
A.SGD
B.AdaGrad
C.l-BFGS
D.拉格朗日松弛Subgradientmethod
A.SGD
B.AdaGrad
C.l-BFGS
D.拉格朗日松弛Subgradientmethod
第2题
A.Word2vec是无监督学习
B.Word2vec利用当前特征词上下文信息实现词向量编码,是语言模型的副产品
C.Word2vec能够表示词汇之间的语义相关性
D.Word2vec没有使用完全的深度神经网络
E.Word2vec可以采用负采样的技术在大词表上优化计算
第3题
A.将数据分组部署在不同GPU上进行训练能提高深度神经网络的训练速度。
B.TensorFlow使用GPU训练好的模型,在执行推断任务时,也必须在GPU上运行。
C.将模型中的浮点数精度降低,例如使用float16代替float32,可以压缩训练好的模型的大小。
D.GPU所配置的显存的大小,对于在该GPU上训练的深度神经网络的复杂度、训练数据的批次规模等,都是一个无法忽视的影响因素
第6题
A.是否使用批量(batch)或小批量优化(mini-batchoptimization)
B.神经网络中局部最小值(鞍点)的存在性
C.拥有多大的计算能力
D.需要调整的超参数的数量
第7题
A.除去神经网络中的最后一层,冻结所有层然后重新训练
B.对神经网络中的最后几层进行微调,同时将最后一层(分类层)更改为回归层
C.使用新的数据集重新训练模型
D.所有答案均不对
第8题
对于连续配筋混凝土路面,在路表修整和拆模养生过程中,下列说法正确的是()
A修整时要与上次抹过痕迹重叠一半,在板面低洼处要补填砂浆
B达到设计强度后,可用毛刷拉毛或用刻纹机使表面达到设计要求的纹理深度
C模板达到一定强度方可拆模,一般是根据气温条件按小时数控制
D拉毛结束后,立即用塑料薄膜覆新鲜混凝土表面
第9题
A.除去神经网络中的最后一层,冻结所有层然后重新训练
B.对神经网络中的最后几层进行微调,同时将最后一层(分类层)更改为回归层
C.使用新的数据集重新训练模型
D.所有答案均不对
第10题
A.Adam的收敛速度比RMSprop慢
B.相比于SGD或RMSprop等优化器,Adam的收敛效果是最好的
C.对于轻量级神经网络,使用Adam比使用RMSprop更合适
D.相比于Adam或RMSprop等优化器,SGD的收敛效果是最好的
第11题
A.除去神经网络中的最后一层,冻结所有层然后重新训练
B.对神经网络中的最后几层进行微调,同时将最后一层(分类层)更改为回归层
C.使用新的数据集重新训练模型
D.所有答案均不对