首页 > 公需科目
题目内容 (请给出正确答案)
[多选题]

常用的激活函数有()。

A.Sigmoid函数

B.Tanh函数

C.ReLu函数

D.ReLo函数

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“常用的激活函数有()。”相关的问题
第1题
如果深度学习神经网络出现了梯度消失或梯度爆炸问题我们常用的解决方法为()。

A.正则化

B.梯度剪切

C.随机欠采样

D.使用Relu激活函数

点击查看答案
第2题
如果深度学习神经网络出现了梯度消失或梯度爆炸问题我们常用的解决方法为:()

A.随机欠采样

B.梯度剪切

C.正则化

D.使用Relu激活函数

点击查看答案
第3题
逻辑函数的常用表示方法有()逻辑图等.

点击查看答案
第4题
激活函数作为神经网络的重要部分,其种类也是多种多样,以下函数也是神经网络激活函数的是?()

A.Relu函数

B.tanh函数

C.Sigmoid函数

D.SoftPlus函数

点击查看答案
第5题
木马程序常用的激活(即自启动)方式有哪些()。
A.修改System.ini中的启动项

B.修改Win.ini中的windows字段中有启动命令“load=”和“run=”

C.修改文件关联

D.修改注册表中的HKLM/Software/Microsoft/Windows/CurrentVersion下以“run”开头的键值

E.设置文件隐藏属性

点击查看答案
第6题
你正在训练一个RNN网络,你发现你的权重与激活值都是“NaN”,下列选项中,哪一个是导致这个问题的最有可能的原因()

A.梯度消失

B.梯度爆炸

C.eLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了

D.Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了

点击查看答案
第7题
tanh激活函数通常比隐藏层单元的sigmoid激活函数效果更好,因为其输出的平均值更接近于零,因此它将数据集中在下一层是更好的选择。()
点击查看答案
第8题
激活函数的作用为给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,深层神经网络表达能力更强大,可以应用到众多的非线性模型中。()
点击查看答案
第9题
卷积神经网络一般包括卷积层、池化层、全连接层,一般激活函数在卷积层后进行使用。()
点击查看答案
第10题
在神经网络学习中,每个神经元会完成若干功能,下面哪个功能不是神经元所能够完成的功能()?

A.对加权累加信息进行非线性变化(通过激活函数)

B.将加权累加信息向后续相邻神经元传递

C.对前序相邻神经元所传递信息进行加权累加

D.向前序相邻神经元反馈加权累加信息

点击查看答案
第11题
关于神经网络的相关概念,哪个说法是正确的()?

A.对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题

B.ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况

C.RMSProp学习率调整策略引入累积梯度的概念,从而解决学习率过早趋向于0而结束训练

D.随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改