B.修改Win.ini中的windows字段中有启动命令“load=”和“run=”
C.修改文件关联
D.修改注册表中的HKLM/Software/Microsoft/Windows/CurrentVersion下以“run”开头的键值
E.设置文件隐藏属性
A.梯度消失
B.梯度爆炸
C.eLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了
D.Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了
A.对加权累加信息进行非线性变化(通过激活函数)
B.将加权累加信息向后续相邻神经元传递
C.对前序相邻神经元所传递信息进行加权累加
D.向前序相邻神经元反馈加权累加信息
A.对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题
B.ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况
C.RMSProp学习率调整策略引入累积梯度的概念,从而解决学习率过早趋向于0而结束训练
D.随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快