如何使用python urllib在HTTP / 1.1中保持活力
发布时间:2020-12-20 13:21:43 所属栏目:Python 来源:网络整理
导读:现在我这样做:( Python3,urllib) url = 'someurl'headers = '(('HOST','somehost'),/ ('Connection','keep-alive'),/ ('Accept-Encoding','gzip,deflate'))opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor())for h in headers: o
现在我这样做:(
Python3,urllib)
url = 'someurl' headers = '(('HOST','somehost'),/ ('Connection','keep-alive'),/ ('Accept-Encoding','gzip,deflate')) opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor()) for h in headers: opener.addheaders.append(x) data = 'some logging data' #username,pw etc. opener.open('somesite/login.php,data) res = opener.open(someurl) data = res.read() ... some stuff here... res1 = opener.open(someurl2) data = res1.read() etc. 这是怎么回事; 我不停地从服务器获取gzipped响应并且我保持登录状态(我正在获取一些如果我没有登录则无法使用的内容)但我认为每个请求openner.open之间的连接都在下降; 我认为,因为连接速度非常慢,似乎每次都有新的连接.两个问题: a)如何测试连接是否保持活着/死亡 照顾自己 :) 解决方法
这将是一个非常延迟的答案,但是:
您应该看到urllib3.它适用于Python 2.x,但是当您看到他们的README文档时,您会明白这一点. 是的,默认情况下urllib不会保持连接活着,我现在正在为Python 3实现urllib3以保留在我的工具包中:) (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |