网站建设知识库,网站域名查询官网,推荐手机网址,营销和销售的区别在哪里课程1_第4周_测验题
目录#xff1a;目录
第一题
1.在我们的前向传播和后向传播实现中使用的 “缓存” 是什么#xff1f;
A. 【 】它用于在训练期间缓存成本函数的中间值。
B. 【 】我们用它将在正向传播过程中计算的变量传递到相应的反向传播步骤。它包含了反向传…课程1_第4周_测验题
目录目录
第一题
1.在我们的前向传播和后向传播实现中使用的 “缓存” 是什么
A. 【 】它用于在训练期间缓存成本函数的中间值。
B. 【 】我们用它将在正向传播过程中计算的变量传递到相应的反向传播步骤。它包含了反向传播计算导数的有用值。
C. 【 】它用于跟踪我们正在搜索的超参数以加快计算速度。
D. 【 】我们用它将反向传播过程中计算的变量传递到相应的正向传播步骤。它包含用于计算正向传播的激活的有用值。
答案
B.【 √ 】我们用它传递前向传播中计算的变量到相应的反向传播步骤它包含用于计算导数的反向传播的有用值。
note“cache” 记录来自正向传播单元的值并将其发送到反向传播单元因为需要链式计算导数。
第二题
2.以下哪些是“超参数”(选出所有正确项)
A. 【 】隐藏层规模 n [ l ] n^{[l]} n[l]
B. 【 】神经网络的层数 L L L
C. 【 】激活向量 a [ l ] a^{[l]} a[l]
D. 【 】权重矩阵 W [ l ] W^{[l]} W[l]
E. 【 】学习率 α \alpha α
F. 【 】迭代次数
G. 【 】偏置向量 b [ l ] b^{[l]} b[l]
答案
A.【 √ 】隐藏层规模 n [ l ] n^{[l]} n[l]
B.【 √ 】神经网络的层数 L L L
E.【 √ 】学习率 α \alpha α
F.【 √ 】迭代次数
第三题
3.下列哪个说法是正确的
A. 【 】神经网络的更深层通常比前面的层计算更复杂的特征。
B. 【 】神经网络的前面的层通常比更深层计算更复杂的特性。
答案
A.【 √ 】神经网络的更深层通常比前面的层计算更复杂的输入特征。
第四题
4.向量化允许您在L层神经网络中计算前向传播时不需要在层l 1, 2, …, L间显式的使用for循环或任何其他显式迭代循环正确吗
A. 【 】正确
B. 【 】错误
答案
B.【 √ 】错误
note在层间计算中我们不能避免for循环迭代。
第五题
5.假设我们将 n [ l ] n ^ {[l]} n[l]的值存储在名为layers的数组中如下所示layer_dims [n_x, 4, 3, 2, 1]。 因此第1层有4个隐藏单元第2层有3个隐藏单元依此类推。 您可以使用哪个for循环初始化模型参数
for(i in range(1, len(layer_dims/2))):parameter[‘W’ str(i)] np.random.randn(layers[i], layers[i-1]) * 0.01 parameter[‘b’ str(i)] np.random.randn(layers[i], 1) * 0.01for(i in range(1, len(layer_dims/2))): parameter[‘W’ str(i)] np.random.randn(layers[i], layers[i-1]) * 0.01 parameter[‘b’ str(i)] np.random.randn(layers[i-1], 1) * 0.01for(i in range(1, len(layer_dims))): parameter[‘W’ str(i)] np.random.randn(layers[i-1], layers[i]) * 0.01 parameter[‘b’ str(i)] np.random.randn(layers[i], 1) * 0.01for(i in range(1, len(layer_dims))): parameter[‘W’ str(i)] np.random.randn(layers[i], layers[i-1]) * 0.01 parameter[‘b’ str(i)] np.random.randn(layers[i], 1) * 0.01答案
D.【 √ 】
for(i in range(1, len(layer_dims))): parameter[‘W’ str(i)] np.random.randn(layers[i], layers[i-1]) * 0.01 parameter[‘b’ str(i)] np.random.randn(layers[i], 1) * 0.01Note矩阵运算W矩阵与X特征向量相乘W矩阵的列数与X特征向量的个数相等。
第六题
6.考虑以下神经网络该神经网络有几层
A. 【 】L层数是4隐藏层数是3
B. 【 】L层数是3隐藏层数是3
C. 【 】L层数是4隐藏层数是4
D. 【 】L层数是5隐藏层数是4
答案
A.【 √ 】层数L为4隐藏层数为3。
note正如图中所看到的那样层数被计为隐藏层数1。输入层和输出层不计为隐藏层。
第七题
7.在前向传播期间在层 l l l的前向传播函数中您需要知道层 l l l中的激活函数SigmoidtanhReLU等是什么。在反向传播期间相应的反向传播函数也需要知道第 l l l层的激活函数是什么因为梯度是根据它来计算的。
A. 【 】对
B. 【 】不对
答案
A.【 √ 】对
note在反向传播期间您需要知道正向传播中使用哪种激活函数才能计算正确的导数。
第八题
8.有一些函数具有以下特性
(i) 当使用浅网络计算时需要一个大网络我们通过网络中的逻辑门数量来度量大小。
(ii) 但是当使用深网络来计算时我们只需要一个指数级小的网络。
A. 【 】对 B. 【 】不对
答案
A.【 √ 】对
第九题
9.在以下2层隐藏层的神经网络中以下哪句话是正确的
A. 【 】 W [ 1 ] W^{[1]} W[1]的形状是 (4, 4)
B. 【 】 b [ 1 ] b^{[1]} b[1]的形状是 (4, 1)
C. 【 】 W [ 2 ] W^{[2]} W[2]的形状是 (3, 4)
D. 【 】 b [ 2 ] b^{[2]} b[2]的形状是 (3, 1)
E. 【 】 b [ 3 ] b^{[3]} b[3]的形状是 (1, 1)
F. 【 】 W [ 3 ] W^{[3]} W[3]的形状是 (1, 3)
答案
A.【 √ 】 W [ 1 ] W^{[1]} W[1]的形状是 (4, 4)
B.【 √ 】 b [ 1 ] b^{[1]} b[1]的形状是 (4, 1)
C.【 √ 】 W [ 2 ] W^{[2]} W[2]的形状是 (3, 4)
D.【 √ 】 b [ 2 ] b^{[2]} b[2]的形状是 (3, 1)
E.【 √ 】 b [ 3 ] b^{[3]} b[3]的形状是 (1, 1)
F.【 √ 】 W [ 3 ] W^{[3]} W[3]的形状是 (1, 3)
第十题
10.前面的问题使用了一个特定的网络一般情况下层 l l l的权重矩阵 W [ l ] W^{[l]} W[l]的维数是多少?
A. 【 】 W [ l ] W^{[l]} W[l]的形状是 ( n [ l ] , n [ l − 1 ] ) (n^{[l]},n^{[l-1]}) (n[l],n[l−1])
B. 【 】 W [ l ] W^{[l]} W[l]的形状是 ( n [ l − 1 ] , n [ l ] ) (n^{[l-1]},n^{[l]}) (n[l−1],n[l])
C. 【 】 W [ l ] W^{[l]} W[l]的形状是 ( n [ l 1 ] , n [ l ] ) (n^{[l1]},n^{[l]}) (n[l1],n[l])
D. 【 】 W [ l ] W^{[l]} W[l]的形状是 ( n [ l ] , n [ l 1 ] ) (n^{[l]},n^{[l1]}) (n[l],n[l1])
答案
A.【 √ 】 W [ l ] W^{[l]} W[l]的形状是 ( n [ l ] , n [ l − 1 ] ) (n^{[l]},n^{[l-1]}) (n[l],n[l−1])