加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

perl处理大容量文件

发布时间:2020-12-15 21:01:15 所属栏目:大数据 来源:网络整理
导读:工作中,经常会遇到一些大容量的文件需要处理,如果逐行处理可能消耗比较大,需要一段一段处理。 use strict; open my $fh,"","your_file"; my @lines; while ($fh) { chomp; push @lines,$_; if (not $.%2) { do_your_thing(@lines); @lines = (); } } clos

工作中,经常会遇到一些大容量的文件需要处理,如果逐行处理可能消耗比较大,需要一段一段处理。

use strict;  
open my $fh,"<","your_file";  
my @lines;  
while (<$fh>) {  
    chomp;  
    push @lines,$_;  
    if (not $.%2) {  
        do_your_thing(@lines);  
        @lines = ();  
    }  
}  
close $fh;  
sub do_your_thing {  
    my @lines = @_;  
    .  
    .  
    .  
}

这个方法就可以先读取两行,处理一下,然后再读两行,再处理,从而实现分段处理。

来源:

http://blog.csdn.net/ace_fei/article/details/6342345

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读