加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Python > 正文

如何使用python urllib在HTTP / 1.1中保持活力

发布时间:2020-12-20 13:21:43 所属栏目:Python 来源:网络整理
导读:现在我这样做:( Python3,urllib) url = 'someurl'headers = '(('HOST','somehost'),/ ('Connection','keep-alive'),/ ('Accept-Encoding','gzip,deflate'))opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor())for h in headers: o
现在我这样做:( Python3,urllib)

url = 'someurl'
headers = '(('HOST','somehost'),/  
            ('Connection','keep-alive'),/
            ('Accept-Encoding','gzip,deflate'))
opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor())
for h in headers:
    opener.addheaders.append(x)
data = 'some logging data' #username,pw etc.
opener.open('somesite/login.php,data)

res = opener.open(someurl)
data = res.read()
... some stuff here...
res1 = opener.open(someurl2)
data = res1.read()
etc.

这是怎么回事;

我不停地从服务器获取gzipped响应并且我保持登录状态(我正在获取一些如果我没有登录则无法使用的内容)但我认为每个请求openner.open之间的连接都在下降;

我认为,因为连接速度非常慢,似乎每次都有新的连接.两个问题:

a)如何测试连接是否保持活着/死亡
b)如何在请求其他网址之间保持活力?

照顾自己 :)

解决方法

这将是一个非常延迟的答案,但是:

您应该看到urllib3.它适用于Python 2.x,但是当您看到他们的README文档时,您会明白这一点.

是的,默认情况下urllib不会保持连接活着,我现在正在为Python 3实现urllib3以保留在我的工具包中:)

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读