加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Python > 正文

使用scipy.stats和statsmodels计算线性回归时的结果不同

发布时间:2020-12-16 23:55:00 所属栏目:Python 来源:网络整理
导读:当我尝试OLS适合这两个库时,我得到不同的r ^ 2值(确定系数),我无法弄清楚原因. (为方便起见,删除了一些间距) In [1]: import pandas as pd In [2]: import numpy as npIn [3]: import statsmodels.api as smIn [4]: import scipy.statsIn [5]: np.random.see

当我尝试OLS适合这两个库时,我得到不同的r ^ 2值(确定系数),我无法弄清楚原因. (为方便起见,删除了一些间距)

In [1]: import pandas as pd       
In [2]: import numpy as np
In [3]: import statsmodels.api as sm
In [4]: import scipy.stats
In [5]: np.random.seed(100)
In [6]: x = np.linspace(0,10,100) + 5*np.random.randn(100)
In [7]: y = np.arange(100)

In [8]: slope,intercept,r,p,std_err = scipy.stats.linregress(x,y)

In [9]: r**2
Out[9]: 0.22045988449873671

In [10]: model = sm.OLS(y,x)
In [11]: est = model.fit()

In [12]: est.rsquared
Out[12]: 0.5327910685035413

这里发生了什么?我想不出来!某处有错误吗?

最佳答案
0.2205来自一个也具有截距项的模型 – 如果你删除截距,则结果为0.5328.

基本上,一个包是建模y = bx而另一个(有帮助)假设你也想要一个截距项(即y = a bx). [注意:这个假设的优点是,否则你每次想要运行回归时都必须使用x并将一列1绑定到它上面(否则你最终会得到一个有偏见的模型)]

查看this post进行更长时间的讨论.

祝好运!

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读