Batch Normalization, 训练加速技术
发布时间:2020-12-14 06:41:10 所属栏目:百科 来源:网络整理
导读:1.简介 Batch Normalization,对每一层的输出,在每一次 mini-batch 传播后做归一化处理,通过 减少上一层的输出变化 来加速收敛. 好处 : Batch Normalization 让我们可以使用更大的学习率,初值可以更随意。它起到了正则项的作用,在某些情况下,有它就不需要
1.简介Batch Normalization,对每一层的输出,在每一次 mini-batch 传播后做归一化处理,通过减少上一层的输出变化来加速收敛. 2.原理3.常用库的相应方法3.1 keras
3.2 tf参考
(编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |