加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Java > 正文

java – Hadoop:你能默默地丢弃失败的地图任务吗?

发布时间:2020-12-15 04:16:56 所属栏目:Java 来源:网络整理
导读:我正在使用hadoop MapReduce处理大量数据.问题是,ocassionaly,一个损坏的文件导致Map任务抛出 java堆空间错误或类似的东西. 如果可能的话,如果可能的话,放弃任何地图任务正在做的事情,杀死它,然后继续工作将是很好的,不要介意丢失的数据.我不希望整个M / R工
我正在使用hadoop MapReduce处理大量数据.问题是,ocassionaly,一个损坏的文件导致Map任务抛出 java堆空间错误或类似的东西.

如果可能的话,如果可能的话,放弃任何地图任务正在做的事情,杀死它,然后继续工作将是很好的,不要介意丢失的数据.我不希望整个M / R工作因此而失败.

这有可能在hadoop中如何?

解决方法

您可以修改mapreduce.max.map.failures.percent参数.默认值为0.增加此参数将允许一定百分比的映射任务失败而不会使作业失败.

您可以在mapred-site.xml中设置此参数(将应用于所有作业),也可以逐个作业(可能更安全).

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读