加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 百科 > 正文

Batch Normalization, 训练加速技术

发布时间:2020-12-14 06:41:10 所属栏目:百科 来源:网络整理
导读:1.简介 Batch Normalization,对每一层的输出,在每一次 mini-batch 传播后做归一化处理,通过 减少上一层的输出变化 来加速收敛. 好处 : Batch Normalization 让我们可以使用更大的学习率,初值可以更随意。它起到了正则项的作用,在某些情况下,有它就不需要

1.简介

Batch Normalization,对每一层的输出,在每一次 mini-batch 传播后做归一化处理,通过减少上一层的输出变化来加速收敛.
好处:
Batch Normalization 让我们可以使用更大的学习率,初值可以更随意。它起到了正则项的作用,在某些情况下,有它就不需要使用Dropout了。

2.原理

3.常用库的相应方法

3.1 keras

model.add(BatchNormalization()),直接添加进去就可以.

3.2 tf

参考

  1. 他人博客,论文笔记-Batch Normalization

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读