scala – Spark未使用所有已配置的内存
使用Spark-2.1.0-SNAPSHOT在10个节点集群上以独立客户端模式启动spark.
9个节点是工人,第10个是主人和司机.每个256GB的内存. 我很难充分利用我的集群. 我使用以下参数为spark-shell设置执行程序和驱动程序的内存限制为200GB: spark-shell --executor-memory 200g --driver-memory 200g --conf spark.driver.maxResultSize=200g 当我的应用程序启动时,我可以在控制台和spark web UI / environment / tab中看到这些值按预期设置. 这里显示的总内存是1.1TB,而我预计会有2TB.我仔细检查了其他进程没有使用内存. 解决方法
你正在充分利用内存,但在这里你只看内存的存储部分.默认情况下,存储部分占总内存的60%.
From Spark Docs
从Spark 1.6开始,执行内存和存储内存是共享的,因此您不太可能需要调整memory.fraction参数. 如果您正在使用yarn,则资源管理器的“Memory Used”和“Memory Total”的主页将表示总内存使用量. (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |