加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 百科 > 正文

正则化解决过拟合问题

发布时间:2020-12-14 01:10:46 所属栏目:百科 来源:网络整理
导读:关于正则化,以下引自李航博士《统计学习方法》1.5节关于正则化的一些描述: 模型选择的典型方法是正则化。正则化是结构风险最小化策略的实现,是在经验风险上加一个正则化项(regularizer)或罚项(penalty term)。正则化项一般是模型复杂度的单调递增函数,模

关于正则化,以下引自李航博士《统计学习方法》1.5节关于正则化的一些描述:

模型选择的典型方法是正则化。正则化是结构风险最小化策略的实现,是在经验风险上加一个正则化项(regularizer)或罚项(penalty term)。正则化项一般是模型复杂度的单调递增函数,模型越复杂,正则化值就越大。比如,正则化项可以是模型参数向量的范数。
正则化符合奥卡姆剃刀(Occam's razor)原理。奥卡姆剃刀原理应用于模型选择时变为以下想法:在所有可能选择的模型中,能够很好地解释已知数据并且十分简单才是最好的模型,也就是应该选择的模型。从贝叶斯估计的角度来看,正则化项对应于模型的先验概率。可以假设复杂的模型有较大的先验概率,简单的模型有较小的先验概率。
为了解决过拟合问题,通常有两种办法,第一是减少样本的特征(即维度),第二就是我们这里要说的”正则化“(又称为”惩罚“,penalty)。
正则化的一般形式是在整个平均损失函数后增加一个正则项(L2范数正则化,也有其他形式的正则化,他们的作用也不同):
什么情况下出现过拟合:
当你拟合的函数中,一些特征权重阶数越高时,过度拟合的情况越有可能发生,反之阶数越小,过拟合发生概率越小,甚至会欠拟合。
比如有三个拟合函数:
a0+a1x1+ a2x2
a0+a1x1+ a2x2+ a3x12+ a4x22
a0+a1x1+ a2x2+ a3x12+ a4x22+ a5x13+ a6x23
则最后这个过拟合的可能最高。

正则化:特征全部保留,但特征系数进行最小优化。
设一般情况下的成本函数为costFucntion(a,x,y)
为了时特征系数减小,以使axj变小,新的成本函数为 costFunction_reg(a,y) = costFunction(a,y) + sum(aj2)
  我们将这种处理叫做正则化

  新增的正则化项为 a02+ a12+ ... + an2,惯例上不要a02这项(他是1的系数),但即使加上效果影响不大。


正则化的线性回归问题
成本函数:costFunction(a,X,y) = 1/2m *sum((h(a,X)-y).^2), 其中h(a,X)=Xa;
正则化后:costFunctionReg(a,y) =costFunction(a,y)+lambda*sum(aj2)
梯度下降法:aj= aj- 1/m *alpha * ( h(a,X)-y ) * Xj
正则化后:aj= aj- 1/m *alpha * ( h(a,X)-y ) * Xj-1/m * alpha * lambda* aj
正规方程组解法 a =(XT*X)-1*XT*y

正则化后:a =(XT*X- lambda * I)-1*XT*y

logistic分类问题过拟合解决
  成本函数:costFunction(ha(x),y) = -y*log( ha(x) ) - (1-y)*log( 1- ha(x))
    正则化后:costFunctionReg(ha(x),y) =costFunction(ha(x),y) +lambda*sum(aj2)
  梯度下降法:aj=aj-1/m*(ha(x)-y)* Xj;
    正则化后:aj=aj-1/m*(ha(x)-y)* Xj-1/m*lambda*a

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读