下面()是关于神经网络的正确说法。
A.对自然界某种函数的逼近
B.对人脑思维活动特征的模拟
C.对人脑神经网络进行抽象
D.以达尔文生物进化论为依据
A.对自然界某种函数的逼近
B.对人脑思维活动特征的模拟
C.对人脑神经网络进行抽象
D.以达尔文生物进化论为依据
A.BP神经网络的训练过程中,先进行后向传播再进行前向传播
B.通过损失函数对后向传播结果进行判定
C.通过前向传播过程对权重参数进行修正
D.训练过程中权值参数的运算量很大,一般采用梯度下降法
A.BP神经网络是前馈神经网络
B.BP神经网络的参数权重值是由反向传播学习算法进行调整的
C.BP神经网络模型拓扑结构包括输入层、隐层和输出层
D.BP神经网络利用激活函数来实现从输出到输入的非线性映射
A.CNN和RNN都属于神经网络,因此二者的训练方式完全一致,均采用BP算法。
B.CNN和RNN都采用了权值共享机制以减少网络中的参数量。
C.在同一个网络中,CNN结构和RNN结构不能同时使用。
D.CNN适用于图像处理,而RNN适用于序列数据处理。
A.异构插件(HETERO)实现用多个硬件各自分担一部分推理任务
B.多设备插件(MULTI)来实现多个硬件自动并行计算多个神经网络
C.异构插件是协同不同类型的计算资源
D.异构插件(HETERO)是动态检查各计算设备的利用率
A.目标检测常使用深度学习中卷积神经网络模型
B.训练好的目标检测算法可以用于边缘计算
C.机器视觉场景往往需要应用边缘计算
D.边缘计算就是一种人工智能
下列关于RNN、LSTM、GRU说法正确的是()。
A.RNN引入了循环的概念
B.LSTM可以防止梯度消失或者爆炸
C.GRU是LSTM的变体
D.RNN、LSTM、GRU是同一神经网络的不同说法,没有区别
A.增加网络层数,可能会增加测试集分类错误率
B.增加网络层数,一定会增加训练集分类错误率
C.减少网络层数,可能会减少测试集分类错误率
D.减少网络层数,一定会减少训练集分类错误率
A.Word2vec是无监督学习
B.Word2vec利用当前特征词上下文信息实现词向量编码,是语言模型的副产品
C.Word2vec能够表示词汇之间的语义相关性
D.Word2vec没有使用完全的深度神经网络
E.Word2vec可以采用负采样的技术在大词表上优化计算
A.只要连接权值构成的矩阵是非负定矩阵,该网络就具有并行稳定性
B.只要连接权值构成的矩阵是非负对角元的对称矩阵,该网络就具有串行稳定性
C.只要连接权值构成的矩阵是非负定矩阵,该网络就具有串行稳定性
D.只要连接权值构成的矩阵是非负对角元的对称矩阵,该网络就具有并行稳定性
A.每一个卷积核在遍历整个图像的时候,卷积核的参数是固定不变的
B.每个卷积核在遍历整个图像的时候,卷积核的参数是变化的
C.图像的空间联系是局部像素较为稀疏,而距离较远的像素相关性较强
D.图像的空间联系是局部像素较为紧密,而距离较远的像素相关性较强