加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > 安全 > 正文

Bash:如何简单地并行化任务?

发布时间:2020-12-16 01:32:10 所属栏目:安全 来源:网络整理
导读:我正在编写一个微小的脚本,在几百个PNG文件中调用“PNGOUT”util.我只是这样做: find $BASEDIR -iname "*png" -exec pngout {} ; 然后我看着我的CPU监视器,注意到只有一个核心被使用,这是非常难过的. 在这个双重,四,八和六(?)核心桌面的这个时代,我如何简
我正在编写一个微小的脚本,在几百个PNG文件中调用“PNGOUT”util.我只是这样做:
find $BASEDIR -iname "*png" -exec pngout {} ;

然后我看着我的CPU监视器,注意到只有一个核心被使用,这是非常难过的.

在这个双重,四,八和六(?)核心桌面的这个时代,我如何简单地将这个任务和Bash并行化? (这不是我第一次有这样的需要,相当多的这些工具是单线程…我已经有了mp3编码器的情况).

会在后台运行所有的pngout吗?那么我的find命令怎么样呢? (我不太确定如何混合发现和’&’字符)

我如果有三百张图片,这意味着在三百个进程之间进行交换,这似乎还不错!

或者我应该在“nb dirs”中复制我的三百个文件,其中“nb dirs”将是核心数,然后同时运行“nb found”? (足够近)

但是我该怎么做呢?

回答我自己的问题…事实证明,xargs命令有一个相对未知的特性,可以用来完成:
find . -iname "*png" -print0 | xargs -0 --max-procs=4 -n 1 pngout

宾果,即时4倍加速在四核机器上:)

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读