首页 > 继续教育
题目内容 (请给出正确答案)
[单选题]

训练一个RNN网络,如果权重与激活值都是NaN,下列选项中,哪一个是导致这个问题的最有可能的原因()。

A.梯度消失

B.梯度爆炸

C.ReLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了

D.Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“训练一个RNN网络,如果权重与激活值都是NaN,下列选项中,…”相关的问题
第1题
你正在训练一个RNN网络,你发现你的权重与激活值都是“NaN”,下列选项中,哪一个是导致这个问题的最有可能的原因()

A.梯度消失

B.梯度爆炸

C.eLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了

D.Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了

点击查看答案
第2题
关于卷积神经网络CNN与循环神经网络RNN,下面说法正确的有:()

A.CNN和RNN都属于神经网络,因此二者的训练方式完全一致,均采用BP算法。

B.CNN和RNN都采用了权值共享机制以减少网络中的参数量。

C.在同一个网络中,CNN结构和RNN结构不能同时使用。

D.CNN适用于图像处理,而RNN适用于序列数据处理。

点击查看答案
第3题
假设你正在训练一个LSTM网络,你有一个10,000词的词汇表,并且使用一个激活值维度为100的LSTM块,在每一个时间步中,Γu的维度是多少()

A.*

B.1

C.10

D.30010000

点击查看答案
第4题
您已经为所有隐藏单元使用tanh激活建立了一个网络。使用np.random.randn(..,..)*1000将权重初始化为相对较大的值。会发生什么()

A.这没关系。只要随机初始化权重,梯度下降不受权重大小的影响

B.这将导致tanh的输入也非常大,因此导致梯度也变大。因此,您必须将α设置得非常小以防止发散;这会减慢学习速度

C.这会导致tanh的输入也非常大,导致单位被“高度激活”,从而加快了学习速度,而权重必须从小数值开始

D.这将导致tanh的输入也很大,因此导致梯度接近于零,优化算法将因此变得缓慢

点击查看答案
第5题
假设在一个深度学习网络中,批量梯度下降花费了大量时间时来找到一组参数值,使成本函数小。以下哪些方法可以帮助找到值较小的参数值?()

A.令所有权重值初始化为0

B.尝试调整学习率

C.尝试mini-batch梯度下降

D.尝试对权重进行更好的随机初始化

点击查看答案
第6题
下面关于免费AP报文的作用描述错误的是()。

A.在VRP备份组中用来通告主备发生变换

B.用于通告一个新的现AC地址:发送方更换网卡,AC地址发生改变,为了能够在AP表项老化前通告所有主机,发送方可以发送一个免费ARP

C.用于检查重复的IP地址:正常情况下不会收到ARP回应,如果收到,则表明本网络中存在与自身P地址重复的地址

D.免费ARP报文用来在主机空闲时与网关设备保持激活

点击查看答案
第7题
为了构建一个非常深的网络,我们经常在卷积层使用“valid”的填充,只使用池化层来缩小激活值的宽/高度,否则的话就会使得输入迅速的变小。()
点击查看答案
第8题
假设一个具有3个神经元和输入为[1,2,3]的简单MLP模型。输入神经元的权重分别为4,5和6。假设激活函数是一个线性常数值3(激活函数为:y=3x)。输出是什么?()

A.32

B.643

C.96

D.48

点击查看答案
第9题
下面()是生成对抗网络的简称。

A.RNN

B.CGAN

C.CNN

D.GAN

点击查看答案
第10题
下面关于BP神经网络的训练的说法中,正确的说法是哪个()?

A.BP神经网络的训练过程中,先进行后向传播再进行前向传播

B.通过损失函数对后向传播结果进行判定

C.通过前向传播过程对权重参数进行修正

D.训练过程中权值参数的运算量很大,一般采用梯度下降法

点击查看答案
第11题
下面关于BP神经网络的说法中,错误的说法是哪个()?

A.BP神经网络是前馈神经网络

B.BP神经网络的参数权重值是由反向传播学习算法进行调整的

C.BP神经网络模型拓扑结构包括输入层、隐层和输出层

D.BP神经网络利用激活函数来实现从输出到输入的非线性映射

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改