加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Python > 正文

最详细爬虫入门教程!花半小时你应该就能去爬一些小东西了!

发布时间:2020-12-17 01:13:06 所属栏目:Python 来源:网络整理
导读:爬虫对目标网页爬取的过程可以参考下面黑色文字部分: 首先访问初始url,获取其相应内容对相应内容进行解析,提取感兴趣的信息和新的链接将上一步提取到的数据存储,将获取到的链接去重并存储至仓库从url仓库获得一条未爬取过的url,开始新的循环 图片中由黑

爬虫对目标网页爬取的过程可以参考下面黑色文字部分:

  • 首先访问初始url,获取其相应内容对相应内容进行解析,提取感兴趣的信息和新的链接将上一步提取到的数据存储,将获取到的链接去重并存储至仓库从url仓库获得一条未爬取过的url,开始新的循环

图片中由黑色文字组成的循环应该很好理解,那么具体到编程上来说,则必须将上面的流程进行抽象,我们可以编写几个元件,每个元件完成一项功能,上图中的蓝底白字就是对这一流程的抽象:

爬虫调度器将要完成整个循环,下面写出python下爬虫调度器的程序:

存储器、下载器、解析器和url管理器!

首先,还是来看看下面这张图,URL管理器到底应该具有哪些功能?

下面来说说下载器。

下载器的作用就是接受URL管理器传递给它的一个url,然后把该网页的内容下载下来。python自带有urllib和urllib2等库(这两个库在python3中合并为urllib),它们的作用就是获取指定的网页内容。不过,在这里我们要使用一个更加简洁好用而且功能更加强大的模块:Requests(查看文档)。

Requests并非python自带模块,需要安装。关于其具体使用方法请查看相关文档,在此不多做介绍。

下载器接受一个url作为参数,返回值为下载到的网页内容(格式为str)。下面就是一个简单的下载器,其中只有一个简单的函数download():

在requests请求中设置User-Agent的目的是伪装成浏览器,这是一只优秀的爬虫应该有的觉悟。

URL管理器和下载器相对简单!剩下的下次介绍,希望能帮到零基础小白的你!

进群:125240963 ? 即可获取数十套PDF!

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读