首页 > 考试题库
题目内容 (请给出正确答案)
[多选题]

以下可以用于神经网络的激活函数是()

A.Simoid函数

B.Tanh函数

C.Relu函数

D.Sum函数

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“以下可以用于神经网络的激活函数是()”相关的问题
第1题
激活函数作为神经网络的重要部分,其种类也是多种多样,以下函数也是神经网络激活函数的是?()

A.Relu函数

B.tanh函数

C.Sigmoid函数

D.SoftPlus函数

点击查看答案
第2题
激活函数的作用为给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,深层神经网络表达能力更强大,可以应用到众多的非线性模型中。()
点击查看答案
第3题
卷积神经网络一般包括卷积层、池化层、全连接层,一般激活函数在卷积层后进行使用。()
点击查看答案
第4题
如果深度学习神经网络出现了梯度消失或梯度爆炸问题我们常用的解决方法为:()

A.随机欠采样

B.梯度剪切

C.正则化

D.使用Relu激活函数

点击查看答案
第5题
如果深度学习神经网络出现了梯度消失或梯度爆炸问题我们常用的解决方法为()。

A.正则化

B.梯度剪切

C.随机欠采样

D.使用Relu激活函数

点击查看答案
第6题
在神经网络学习中,每个神经元会完成若干功能,下面哪个功能不是神经元所能够完成的功能()?

A.对加权累加信息进行非线性变化(通过激活函数)

B.将加权累加信息向后续相邻神经元传递

C.对前序相邻神经元所传递信息进行加权累加

D.向前序相邻神经元反馈加权累加信息

点击查看答案
第7题
关于神经网络的相关概念,哪个说法是正确的()?

A.对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题

B.ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况

C.RMSProp学习率调整策略引入累积梯度的概念,从而解决学习率过早趋向于0而结束训练

D.随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快

点击查看答案
第8题
对于任意的连续函数f,存在一个三层BP神经网络,该神经网络可以以任意精度拟合函数f。()
点击查看答案
第9题
下列不属于神经网络特征的是()。

A.能逼近任意非线性函数

B.信息的并行分布式处理与存储

C.可以多输入、多输出

D.具有全局收索特性

点击查看答案
第10题
在神经网络中,以下哪种技术用于解决过拟合()

A.Dropout

B.正则化

C.批规范化

D.所有

点击查看答案
第11题
关于Python的lambda函数,以下选项中描述正确的是()。

A.lambda函数将函数名作为函数结果返回

B.f=lambdax,y:x+y执行后,f的类型为数字类型

C.lambda用于定义简单的、能够在一行内表示的函数

D.可以使用lambda函数定义列表的排序原则

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改