深度学习中如果神经网络的层数较多比较容易出现梯度消失问题。严格意义上来讲是在以下哪个环节出现样度消失间题?


深度学习中如果神经网络的层数较多比较容易出现梯度消失问题。严格意义上来讲是在以下哪个环节出现样度消失间题?

A、反向传播更新参数

B、反向传播计算结果

C、正向传播更新参数

D、正向传播计算结果

正确答案:反向传播更新参数


Tag:参数 神经网络 梯度 时间:2024-05-28 20:46:30