python爬虫 requests异常requests.exceptions.ConnectionError:
发布时间:2020-12-17 17:00:05 所属栏目:Python 来源:网络整理
导读:错误提示: requests.exceptions.ConnectionError:?HTTPSConnectionPool(host='baike.baidu.com',?port=443):?Max?retries?exceeded?with?url:?https://baike.baidu.com/item/%E5%88%98%E5%BE%B7%E5%8D%8E/114923?(Caused?by?NewConnectionError('urllib3.co
错误提示: requests.exceptions.ConnectionError:?HTTPSConnectionPool(host='baike.baidu.com',?port=443): ?Max?retries?exceeded?with?url:?https://baike.baidu.com/item/%E5%88%98%E5%BE%B7%E5%8D%8E/114923 ?(Caused?by?NewConnectionError('<urllib3.connection.VerifiedHTTPSConnection?object?at?0x7fb51433af98>: ?Failed?to?establish?a?new?connection:?[Errno?-2]?Name?or?service?not?known',)) 经过一番查询,发现该错误是因为如下:
解决办法如下: 第一种方法 try: ????page1?=?requests.get(ap) except?requests.exceptions.ConnectionError: ????r.status_code?=?"Connection?refused" 第二种方法: request的连接数过多而导致Max retries exceeded 在header中不使用持久连接 'Connection':?'close' 或 requests.adapters.DEFAULT_RETRIES?=?5 第三种方法: 针对请求请求速度过快导致程序报错。 解决方法可以参考以下例子: import?time while?1: ????try: ????????page?=?requests.get(url) ????except: ????????print("Connection?refused?by?the?server..") ????????print("Let?me?sleep?for?5?seconds") ????????print("ZZzzzz...") ????????time.sleep(5) ????????print("Was?a?nice?sleep,?now?let?me?continue...") ????????continue (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |