关于L1正则和L2正则下面的说法正确的是()。
A.L2范数可以防止过拟合,提升模型的泛化能力。但L1正则做不到这一点
B.L2正则化标识各个参数的平方的和
C.L2正则化又叫做Lassoregularization
D.L1范数会使权值稀疏
A.L2范数可以防止过拟合,提升模型的泛化能力。但L1正则做不到这一点
B.L2正则化标识各个参数的平方的和
C.L2正则化又叫做Lassoregularization
D.L1范数会使权值稀疏
第1题
A.L2范数可以防止过拟合,提升模型的泛化能力。但L1正则做不到这一点
B.L2正则化标识各个参数的平方的和的开方值
C.L2正则化有个名称叫“Lassoregularization”
D.L1范数会使权值稀疏
第2题
A.L2正则化能防止过拟合,提升模型的泛化能力,但L1做不到这点
B.L2正则化技术又称为LassoRegularization
C.L1正则化得到的解更加稀疏
D.L2正则化得到的解更加稀疏
第3题
A.L1正则化可以用于特征选择
B.L1正则化和L2正则化可以减少过拟合
C.Lp正则化不能减少过拟合
D.L1正则化和L2正则化可以看成是损失函数的惩罚项
第4题
A.L1范数和L2范数都有助于降低过拟合的风险
B.基于L1正则化的学习方法是一种典型的嵌入式特征选择方法
C.L1范数正则化更容易得到“稀疏”解
D.L2范数正则化更容易得到“稀疏”解
第5题
A.L1范数正则化有助于降低过拟合风险
B.L2范数正则化有助于降低过拟合风险
C.L1范数正则化比L2范数正则化更有易于获得稀疏解
D.L2范数正则化比L1范数正则化更有易于获得稀疏解
第6题
A.使用L1可以得到稀疏的权值,使用L2可以得到平滑的权值
B.使用L1可以得到平滑的权值,使用L2可以得到平滑的权值
C.使用L1可以得到平滑的权值,使用L2可以得到稀疏的权值
D.使用L1可以得到稀疏的权值,使用L2可以得到稀疏的权值
第8题
A.Dropout背后的思想其实就是把DNN当做一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN
B.DNN网络将Dropout率设置为p,也就是说,一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0
C.丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。因为这个原因,所以每一次训练,它都像是在训练一个新的网络
D.Dropout方法通常和L2正则化或者其他参数约束技术(比如MaxNorm)一起使用,来防止神经网络的过拟合
第10题
A.当λ增大时,偏差减小,方差减小
B.当λ增大时,偏差减小,方差增大
C.当λ增大时,偏差增大,方差减小
D.当λ增大时,偏差增大,方差增大
第11题
A.控制网络层数可以一定程度上减少梯度消失的问题
B.可能采用了不合适的激活函数
C.剪切梯度,正则化能防止梯度消散
D.使用残差网络可以减少梯度消散的问题