scala – spark exitCode:12是什么意思?
我正在尝试运行一个用
scala 11.8编写的spark应用程序,在EMR集群版本5.3.0上使用spark 2.1.
我使用以下json配置了集群: [ { "Classification": "hadoop-env","Configurations": [ { "Classification": "export","Configurations": [],"Properties": { "JAVA_HOME": "/usr/lib/jvm/java-1.8.0" } } ],"Properties": {} },{ "Classification": "spark-env","Properties": {} } ] 如果我试图在客户端模式下运行一切运行正常.尝试使用群集模式运行应用程序时,它失败,状态码为12. 这是主日志的一部分,我在其中看到状态代码:
更新: 作为工作的一部分,我需要从s3中读取一些数据, 解决方法
退出代码12是标准的
exit code in linux,用于指示内存不足.
Spark将每个执行程序进程使用的默认内存量设置为1gb.无论群集节点/主机上的可用内存量如何,EMR都不会覆盖此值.一种可能的解决方法是将maximizeResourceAllocation标志设置为true. (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |