加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Python > 正文

python网络爬虫——增量式爬虫

发布时间:2020-12-20 10:28:14 所属栏目:Python 来源:网络整理
导读:增量式爬虫 引言: ? ? 当我们在浏览相关网页的时候会发现,某些网站定时会在原有网页数据的基础上更新一批数据,例如电影网站会实时更新一批最近热门的电影。小说网站会根据作者创作的进度实时更新最新的章节数据等等。那么,类似的情景,当我们在爬虫的过

增量式爬虫

引言:

? ? 当我们在浏览相关网页的时候会发现,某些网站定时会在原有网页数据的基础上更新一批数据,例如电影网站会实时更新一批最近热门的电影。小说网站会根据作者创作的进度实时更新最新的章节数据等等。那么,类似的情景,当我们在爬虫的过程中遇到时,我们是不是需要定时更新程序以便能爬取到网站中最近更新的数据呢?

一.增量式爬虫

  • 概念:通过爬虫程序监测某网站数据更新的情况,以便可以爬取到该网站更新出的新数据。
  • 如何进行增量式的爬取工作:
    • 在发送请求之前判断这个URL是不是之前爬取过
    • 在解析内容后判断这部分内容是不是之前爬取过
    • 写入存储介质时判断内容是不是已经在介质中存在
      • 分析:

        ? ? ? 不难发现,其实增量爬取的核心是去重, 至于去重的操作在哪个步骤起作用,只能说各有利弊。实际上,前两种思路需要根据实际情况取一个(也可能都用)。第一种思路适合不断有新页面出现的网站,比如说小说的新章节,每天的最新新闻等等;第二种思路则适合页面内容会更新的网站。第三个思路是相当于是最后的一道防线。这样做可以最大程度上达到去重的目的。

  • 去重方法
    • 将爬取过程中产生的url进行存储,存储在redis的set中。当下次进行数据爬取时,首先对即将要发起的请求对应的url在存储的url的set中做判断,如果存在则不进行请求,否则才进行请求。
    • 对爬取到的网页内容进行唯一标识的制定,然后将该唯一表示存储至redis的set中。当下次爬取到网页数据的时候,在进行持久化存储之前,首先可以先判断该数据的唯一标识在redis的set中是否存在,在决定是否进行持久化存储。

二.项目案例

- 需求:爬取4567tv网站中所有的电影详情数据。【crawl spider】

# 1.spider文件

import scrapy
from movieAddPro.items import MovieaddproItem
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider,Rule
from redis import Redis

class MovieaddSpider(CrawlSpider):
    name = movieadd
    # allowed_domains = [‘www.xxx.com‘]

    start_urls = [https://www.4567tv.tv/frim/index1.html]

    link = LinkExtractor(allow=r.frim/index1-d+.html)
    rules = (
        Rule(link,callback=parse_item,follow=True),)
    
    # 创建reids连接对象
    conn = Redis(host=127.0.0.1,port=6379)
    # 解析电影的名称和详情页的url
    def parse_item(self,response):
        li_list = response.xpath(/html/body/div[1]/div/div/div/div[2]/ul/li)
        for li in li_list:
            title = li.xpath(./div/a/@title).extract_first()
            # 获取详情页url
            detail_url = https://www.4567tv.tv + li.xpath(./div/a/@href).extract_first()
            item = MovieaddproItem()
            item[title] = title

            # 判断该详情页的url是否进行请求发送
            ex = self.conn.sadd(movieadd_detail_urls,detail_url)
            if ex == 1: # 说明detail_url之前不存在redis的set集合中,需要发送请求
                print(已有新数据更新,正在爬取数据......)
                yield scrapy.Request(url=detail_url,callback=self.parse_detail,meta={item:item})
            else:
                print(暂无新数据更新......)

    def parse_detail(self,response):
        item = response.meta[item]
        desc = response.xpath(/html/body/div[1]/div/div/div/div[2]/p[5]/span[3]/text()).extract_first()
        item[desc] = desc

        yield item 
--------------------------------------------------------------------------------
# 2.pipelines文件

class MovieaddproPipeline(object):

    def process_item(self,item,spider):
        dic = {
            title:item[title],desc:item[desc]
        }
        print(dic)
        
        conn = spider.conn

        conn.lpush(movieadd_data,dic)
        return item
--------------------------------------------------------------------------------
# 3.items文件

import scrapy

class MovieaddproItem(scrapy.Item):
    title = scrapy.Field()
    desc = scrapy.Field()
--------------------------------------------------------------------------------
# 4.setting文件

BOT_NAME = movieAddPro

SPIDER_MODULES = [movieAddPro.spiders]
NEWSPIDER_MODULE = movieAddPro.spiders

USER_AGENT = Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/76.0.3809.132 Safari/537.36

ROBOTSTXT_OBEY = False

LOG_LEVEL = ERROR

ITEM_PIPELINES = {
   movieAddPro.pipelines.MovieaddproPipeline: 300,}

- 需求:爬取糗事百科中的段子和作者数据。

# 1.spider文件

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider,Rule
from incrementByDataPro.items import IncrementbydataproItem
from redis import Redis
import hashlib

class QiubaiSpider(CrawlSpider):
    name = qiubai
    start_urls = [https://www.qiushibaike.com/text/]

    rules = (
        Rule(LinkExtractor(allow=r/text/page/d+/),callback=parse_item,Rule(LinkExtractor(allow=r/text/$),)
    #创建redis链接对象
    conn = Redis(host=127.0.0.1,port=6379)
    def parse_item(self,response):
        div_list = response.xpath(//div[@id="content-left"]/div)

        for div in div_list:
            item = IncrementbydataproItem()
            item[author] = div.xpath(./div[1]/a[2]/h2/text() | ./div[1]/span[2]/h2/text()).extract_first()
            item[content] = div.xpath(.//div[@class="content"]/span/text()).extract_first()

            #将解析到的数据值生成一个唯一的标识进行redis存储
            source = item[author]+item[content]
            source_id = hashlib.sha256(source.encode()).hexdigest()
            #将解析内容的唯一表示存储到redis的data_id中
            ex = self.conn.sadd(data_id,source_id)

            if ex == 1:
                print(该条数据没有爬取过,可以爬取......)
                yield item
            else:
                print(该条数据已经爬取过了,不需要再次爬取了!!!)
--------------------------------------------------------------------------------
# 2.pipelines文件     

from redis import Redis
class IncrementbydataproPipeline(object):
    conn = None

    def open_spider(self,spider):
        self.conn = Redis(host=127.0.0.1,port=6379)

    def process_item(self,spider):
        dic = {
            author: item[author],content: item[content]
        }
        print(dic)
        self.conn.lpush(qiubaiData,dic)
        return item

?

?- 需求:爬取4567tv网站中所有的电影详情数据。【spider】

# 1.spider文件

import scrapy
from movieAddPro.items import MovieaddproItem
from scrapy.spiders import Spider
from scrapy_redis.spiders import RedisSpider
from redis import Redis

class MovieaddSpider(Spider):
    name = movieadd

    redis_key = ts

    conn = Redis(host=127.0.0.1,}

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读