加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Python > 正文

Scrapy框架高级操作

发布时间:2020-12-20 10:59:00 所属栏目:Python 来源:网络整理
导读:一?爬取多URL 实现同一个网址的多个url爬取 class QiubaiSpider(scrapy.Spider): name = ‘ qiubai ‘ # allowed_domains = [‘www.qiushibaike.com/text‘] start_urls = [ ‘ https://www.qiushibaike.com/text/ ‘ ] # 设计一个通用url模板 url = ‘ http

一?爬取多URL

实现同一个网址的多个url爬取

class QiubaiSpider(scrapy.Spider):
    name = qiubai
    # allowed_domains = [‘www.qiushibaike.com/text‘]
    start_urls = [https://www.qiushibaike.com/text/]
    # 设计一个通用url模板
    url = https://www.qiushibaike.com/text/page/%d/
    page_num = 1

    def parse(self,response):
        # 建议使用xpath进行解析(框架集成了xpath解析的接口)
        div_list = response.xpath(//div[@id="content-left"]/div )
        # 存储解析到的页面数据
        data_list = []
        for div in div_list:
            # xpath解析到的指定内容存储到了Selector对象
            # extract()该方法可以将Selector对象存储中存储的数据值拿到
            author = div.xpath(./div/a[2]/h2/text()).extract_first()
            # extract_first = extract()[0]
            content = div.xpath(.//div[@class="content"]/span/text()).extract_first()

            # 将解析到的数据值(author和content)存储到items对象
            item = QiubaibypageseItem()
            item[author] = author
            item[content] = content
            # 将item对象提交给管道
            yield item
        # 请求的手动发送
        # 13表示最后一页页码
        if self.page_num <= 13:
            print("爬取到了第%d页的页面数据" % self.page_num)
            self.page_num += 1
            new_url = format(self.url % self.page_num)
            # callback:将去请求获取到的页面数据进行解析
            yield scrapy.Request(url=new_url,callback=self.parse)

二?发起post请求

# 将百度翻译中指定词条对应的翻译结果进行获取

class PostdemoSpider(scrapy.Spider):
    name = postDemo
    # allowed_domains = [‘www.baidu.com‘]
    start_urls = [https://fanyi.baidu.com/sug]

    def start_requests(self):
        # 该方法其实是父类中的一个方法:该方法可以对star_urls列表中的元素进行get请求的fas
        # 发送post:
            # 将Request方法中method参数赋值成post
            # FormRequest()可以发起post请求(推荐)
        data = {
            kw: dog
        }
        print(start requests)
        for url in self.start_urls:
            yield scrapy.FormRequest(url=url,formdata=data,callback=self.parse)

    def parse(self,response):
        print(response.text)

三?实现对cookie的操作

class DoubanSpider(scrapy.Spider):
    name = douban
    start_urls = [https://accounts.douban.com/j/mobile/login/basic]

    def start_requests(self):
        param_data = {
            ck: dFf2,name: 18629090745,password: cs1993413,remember: false,ticket: ‘‘
        }

        for url in self.start_urls:
            yield scrapy.FormRequest(url,formdata=param_data,callback=self.parse)

    def parseBySecondPage(self,response):
        #  指定个人页面数据进行解析
        fp = open(second.html,w,encoding=utf-8)
        fp.write(response.text)

    def parse(self,response):
        print(response.text)
        # 获取当前用户的个人主页
        url = https://www.douban.com/people/181322653/
        yield scrapy.Request(url=url,callback=self.parseBySecondPage)

四?代理操作

下载中间件的作用: 拦截请求,可以将请求的ip进行更换

流程:

(1)下载中间件类的自制定

# 自定义一个下载中间件的类,在类中事先process_request(处理中间件拦截到的请求)方法

# 自定义一个下载中间件的类,在类中事先process_request(处理中间件拦截到的请求)方法
class MyProxy(object):
    def process_request(self,request,spider):
        # 请求ip的更换
        request.meta[proxy] = "http://183.233.90.6:8080"

(2) 配置文件中进行下载中间件的开启

DOWNLOADER_MIDDLEWARES = {
       # ‘postPro.middlewares.PostproDownloaderMiddleware‘: 543,
       postPro.middlewares.MyProxy: 542,}

五?日志等级

日志等级

  • ERROR:错误
  • WARNING:警告
  • INFO:一般的信息
  • DEBUG:调试信息(默认输出)

在settins中修改:

# 指定终端输入指定种类的日志信息
LOG_LEVEL = ERROR
# 日志输出到指定的文件
LOG_FILE = log.txt

六?携带请求参数

解决爬取的数据值不在同一页面中

# 需求:将1905电影网中电影详情进行爬取(名称, 类型, 导演, 评分, 剧情,演员)

class Moive195Spider(scrapy.Spider):
    name = moive195
    # allowed_domains = [‘http://www.1905.com‘]
    start_urls = [http://www.1905.com/mdb/film/list/year-2018]

    # 用于解析二级子页面中的数据值
    def parseBySecondPage(self,response):
        Feature = response.xpath(/html/body/div[2]/div/div[1]/section[1]/div/p/text()).extract_first()
        director = response.xpath(/html/body/div[2]/section/div/div[2]/div[2]/a[1]/div[2]/text()).extract_first()
        # 取出Request方法的meta参数传递过来的字典(response.meta)
        item = response.meta[item]
        item[feature] = Feature if Feature else ‘‘
        item[director] = director if director else ‘‘

        # 将item提交给管道
        yield item

    def parse(self,response):
        div_list = response.xpath("/html/body/div[2]/div[1]/ul/li")
        for div in div_list:
            movie_name = div.xpath("./div/p[1]/a/text()").extract_first()
            href = div.xpath("./a/@href").extract_first()
            rank = div.xpath("./div/p[2]/b/text()").extract_first()
            actors = div.xpath("./div/p[3]/a/text()").extract()
            print(actors,演员)
            movie_type = div.xpath("./div/p[4]/a/text()").extract_first()
            # 创建item对象
            item = ParsemoiveItem()
            item[name] = movie_name if movie_name else ‘‘
            item[movie_type] = movie_type if movie_type else ‘‘
            item[rank] = rank if rank else ‘‘
            item[actors] = /.join(actors) if actors else ‘‘

            # 需要对url发起请求,获取页面数据进行指定的解析
            url = http://www.1905.com/ + href
            # meta参数值可以赋值一个字典(将item对象先封装到一个字典中)
            yield scrapy.Request(url=url,callback=self.parseBySecondPage,meta={item: item})

pipline.py

class ParsemoivePipeline(object):
    fp = None

    def open_spider(self,spider):
        self.fp = open(movie.txt,encoding=utf-8)

    def process_item(self,item,spider):
        detail = item[name] + : + item[movie_type] + ‘‘ + item[rank] + ‘‘ + item[director] + "n" + item[actors] + "n" + item[feature] + "nnn"
        self.fp.write(detail)
        return item

    def close_spider(self,spider):
        self.fp.close()

?七 CrawlSpider

问题: 如果想要对某一个网站全站的数据进行爬取

解决方案:

  • 1 手动请求的发送
  • 2 CrawlSpider(推荐)

CrawlSpider概念

CrawlSpider其实就是Spider的一个子类。 CrawlSpider功能更加强大(链接提取器,规则解析器)
? ? * 创建一个基于CrawlSpider的爬虫文件

 scrapy genspider -t crawl 爬虫名称 起始url
import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider,Rule


class CrawlchoutiSpider(CrawlSpider):
    name = crawlchouti
    # allowed_domains = [‘dig.chouti.com‘]
    start_urls = [https://dig.chouti.com/]
    # 实例化了一个链接提取器对象
    # 链接提取器:用来提取指定的链接(url)
    # allow参数:赋值一个正则表达式
    # 链接提取器可以根据正则表达式在页面提取指定的链接
    # 提取到的链接会全部交给规则解析器
    link = LinkExtractor(allow=r/all/hot/recent/d+)
    rules = (
        # 实例化了一个规则解析器对象
        # 规则解析器接受了链接提取器发送的链接后,就会对这些链接发起请求,获取链接对应的页面内容, 就会根据指定的规则对页面内容中指定的数据值进行解析
        # callback:指定一个解析规则(方法/函数)
        # follow:是否将链接提取器继续作用到链接提取器提出的链接所表示的页面数据
        Rule(link,callback=parse_item,follow=False),)

    def parse_item(self,response):
        print(response)

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读