加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

[bigdata-123] 一般形式的反向传导算法BP最简推导-1

发布时间:2020-12-14 04:58:20 所属栏目:大数据 来源:网络整理
导读:1.神经网络结构 设神经网络的层数是 p , p ≥ 3 。 神经网络有三种层:一个输入层,若干个隐层,一个输出层,分别简称 L 1 , L 2 ,…, L p 。 设每层神经元数量分别是 d 1 , d 2 ,…, d p 。每个神经元的应激函数是 f ( x ) 。 2.分析第一层和第二层

1.神经网络结构
设神经网络的层数是 p p3
神经网络有三种层:一个输入层,若干个隐层,一个输出层,分别简称 L1 L2 ,…, Lp
设每层神经元数量分别是 d1 d2 ,…, dp 。每个神经元的应激函数是 f(x)

2.分析第一层和第二层并推导全局变量
设一个样本是 xRd1×1 ,它从 L1 层输入。

L1 L2 之间的连接权重矩阵是 W1 ,那么:

W1Rd2×d1

W1 的第一行就是:

W1[1:]=[W11,1,W11,2,...,W11,d2]

其中, W11,i ,就是 L1 层的第 i 个神经元和第 L2 层的第1个神经元的权重系数。

那么, L2 的第一个神经元的激活值,就是:

a21=f(W1[1:]x+b11)

z21=W1[1:]x+b11 ,上式又可以写为:

a21=f(z21)

更进一步地, L2 的每个神经元激活值可以写为:

a2i=f(W1[i:])x+b1i),i=1,...,d2

更进一步地, Lj+1 层的每个神经元激活值可以写为:
aj+1i=f(Wj[i:])x+bji),i=1,...,dj+1

为简便起见,令

zj+1i=Wj[i:])x+bji

则:
aj+1i=f(zj+1i),i=1,...,dj

对于输出层 L1 j=1 a1i 可以视为样本 x 的第 i 分量。

3.反向传播

3.1 代价函数
设训练集是 {(x1,y1),(x2,y2),...,(xm,ym)} ,其中, ykRdp×1 ,这显而易见,输出层的神经元是 dp 个。

研究一个样本 (xk,yk) ,对它而言,代价函数是:

J(W1,W2,b1,b2;xk,yk)=12hW1,W2,b1,b2(xk)?yk2=12q=1dp(ykq?f(zp,kq))2

其中, ykq 表示,第 yk 的第 q 个分量。

为简便起见,也可以写成

J(W,b;xk,yk)=12q=1dp(ykq?f(zpq))2

考虑整个训练集,代价函数是:

J(W,b)=k=1mJ(W,b;xk,yk)

考虑到对 W1 W2 进行正则化,以避免过拟合,代价函数是:

J(W,b)=k=1mJ(W,b;xk,yk)+λ2l=1p?1i=1dlj=1dl+1(Wlj,i)2

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读