"[图片] 1.为什么不是W推向0来实现? 2.对于tanh,为什么第一层先于后层饱和? [图片]"
AI实时周报
AI产品导航
人工智能
AI架构
问答
优选
登录
注册
Fork me on GitHub
2029_nickname
2029_default_intro
深度学习
神经网络
算法
Q&A
•
0
回帖
•
2.9K
浏览 •
80
悬赏 • 5 年前
Xavier 论文疑惑(论文标题:Understanding the difficulty of training deep feedforward neural networks)
1.为什么不是W推向0来实现?
2.对于tanh,为什么第一层先于后层饱和?
0 回帖
垃圾广告
低俗色情
违法违规
涉嫌侵权
人身攻击
其他
举报
0
Xavier 论文疑惑(论文标题:Understanding the difficulty of training deep feedforward neural networks)
2
0
0
0
回帖