加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

使用Perl访问半百万页

发布时间:2020-12-16 06:11:07 所属栏目:大数据 来源:网络整理
导读:目前我正在使用Mechanize和get()方法来获取每个站点,并使用content()方法检查每个主页的内容. 我有一个非常快速的计算机10Mbit连接,但仍然需要9个小时来检查11K站点,这是不可接受的,问题是,get()函数的速度,显然,需要获取页面,是有什么方法可以让它更快,也许
目前我正在使用Mechanize和get()方法来获取每个站点,并使用content()方法检查每个主页的内容.
我有一个非常快速的计算机10Mbit连接,但仍然需要9个小时来检查11K站点,这是不可接受的,问题是,get()函数的速度,显然,需要获取页面,是有什么方法可以让它更快,也许是禁用一些东西,因为我只需要检查主页面html.

谢谢,

解决方法

并行查询而不是串行查询.如果我需要这样做,我会分叉一个抓取页面的过程.像 Parallel::ForkManager,LWP::Parallel::UserAgent或 WWW:Curl这样的东西可能会有所帮助.我倾向于赞成 Mojo::UserAgent.

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读