目录   为什么要用激活函数   sigmod   tanh   ReLU   LeakyReLU   ReLU6   参考资料 为什么要用激活函数 在神经网络中,如果不对上一层结点 ...
预训练的用处:规则化,防止过拟合;压缩数据,去除冗余;强化特征,减小误差;加快收敛速度。 ...

关注我们的公众号

微信公众号