Toggle navigation
首页
问答
文章
话题
专家
全站搜索
提问
会员
中心
登录
注册
计算机
深度学习中如果神经网络的层数较多比较容易出现梯度消失问题。严格意义上来讲是在以下哪个环节出现样度消失间题?
发布于 2021-07-29 15:36:03
【单选题】
A 反向传播更新参数
B 正向传播更新梦故
C 反向传播计算结果
D 正向传播计算结果
查看更多
关注者
0
被浏览
296
体验AI问答!更聪明、超智能!
一款基于GPT的超级AI助手,可以对话、创作、写文案!
👉 点击使用 - AI智能问答 🔥
马小宇
2021-07-29
这家伙很懒,什么也没写!
此回答被采纳为最佳答案,开通VIP会员可查看
1
个回答
默认排序
按发布时间排序
撰写答案
请登录后再发布答案,
点击登录
登录
注册新账号
有人回复时邮件通知我
关于作者
mylove
这家伙很懒,什么也没写!
提问
1220
回答
1250
被采纳
1178
关注TA
发私信
相关问题
1
常见的聚类算法有哪些?
2
朴素贝叶斯算法不需要样本特征之间的独立同分布。
3
感知器在空间中可以展现为?
4
已知全连接神经网络的某一层的参数总量为330,则上一层和本层的神经元数量可能为?
5
在经典的卷积神经网络模型中,Softmax函数是跟在什么隐藏层后面的?
6
在训练神经网络过程中我们目的是让损失函数不断减少,我们常用以下哪种方法最小化损失函数?
7
TensorFlow是一个用于机器学习和深度学习的端到端开源平台。
8
TensorFlow20的kerasmetrics的内置指标不包括的方法有?
9
当使用TensorFlow20的keras接口搭建神经网络时,需要进行网络的编译工作,需要用到以下哪种方法?
10
以下属于TensorFlow20的特性的是?
发布
问题
手机
浏览
扫码手机浏览
分享
好友
在线
客服
回到
顶部