使用scrapy实现爬网站例子和实现网络爬虫(蜘蛛)的步骤
复制代码 代码如下: #!/usr/bin/env python # -*- coding: utf-8 -*- from scrapy.contrib.spiders import CrawlSpider,Rule from scrapy.contrib.linkextractors.sgml import SgmlLinkExtractor from scrapy.selector import Selector from cnbeta.items import CnbetaItem rules = ( def parse_page(self,response): 实现蜘蛛爬虫步骤 1.实例初级目标:从一个网站的列表页抓取文章列表,然后存入数据库中,数据库包括文章标题、链接、时间 首先生成一个项目:scrapy startproject fjsen 我们开始建模的项目,我们想抓取的标题,地址和时间的网站,我们定义域为这三个属性。这样做,我们编辑items.py,发现在开放目录目录。我们的项目看起来像这样: 复制代码 代码如下: from scrapy.item import Item,Field class FjsenItem(Item): # define the fields for your item here like: # name = Field() title=Field() link=Field() addtime=Field() 第二步:定义一个spider,就是爬行蜘蛛(注意在工程的spiders文件夹下),他们确定一个初步清单的网址下载,如何跟随链接,以及如何分析这些内容的页面中提取项目(我们要抓取的网站是http://www.fjsen.com/j/node_94962.htm 这列表的所有十页的链接和时间)。 复制代码 代码如下: #-*- coding: utf-8 -*- from scrapy.spider import BaseSpider from scrapy.selector import HtmlXPathSelector from fjsen.items import FjsenItem class FjsenSpider(BaseSpider): name="fjsen" allowed_domains=["fjsen.com"] start_urls=['http://www.fjsen.com/j/node_94962_'+str(x)+'.htm' for x in range(2,11)]+['http://www.fjsen.com/j/node_94962.htm'] def parse(self,response): hxs=HtmlXPathSelector(response) sites=hxs.select('//ul/li') items=[] for site in sites: item=FjsenItem() item['title']=site.select('a/text()').extract() item['link'] = site.select('a/@href').extract() item['addtime']=site.select('span/text()').extract() items.append(item) return items name:是确定蜘蛛的名称。它必须是独特的,就是说,你不能设置相同的名称不同的蜘蛛。
复制代码 代码如下: # Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting from os import path from scrapy import signals from scrapy.xlib.pydispatch import dispatcher class FjsenPipeline(object): def __init__(self): self.conn=None dispatcher.connect(self.initialize,signals.engine_started) dispatcher.connect(self.finalize,signals.engine_stopped) def process_item(self,item,spider): self.conn.execute('insert into fjsen values(?,?,?)',(None,item['title'][0],'http://www.aspzz.cn/'+item['link'][0],item['addtime'][0])) return item def initialize(self): if path.exists(self.filename): self.conn=sqlite3.connect(self.filename) else: self.conn=self.create_table(self.filename) def finalize(self): if self.conn is not None: self.conn.commit() self.conn.close() self.conn=None def create_table(self,filename): conn=sqlite3.connect(filename) conn.execute("""create table fjsen(id integer primary key autoincrement,title text,link text,addtime text)""") conn.commit() return conn 这里我暂时不解释,先继续,让这个蜘蛛跑起来再说。 第四步:修改setting.py这个文件:将下面这句话加进去 复制代码 代码如下: ITEM_PIPELINES=['fjsen.pipelines.FjsenPipeline'] 接着,跑起来吧,执行: 复制代码 代码如下: scrapy crawl fjsen 就会在目前下生成一个data.sqlite的数据库文件,所有抓取到的数据都会存在这里。 (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |