您好, 欢迎来到 !    登录 | 注册 | | 设为首页 | 收藏本站

如何在YARN帐户上运行Spark以获取Python内存使用情况?

如何在YARN帐户上运行Spark以获取Python内存使用情况?

由于Python代码繁重,我尝试将内存增加spark.python.worker.memory认值( ),并且该属性值。

聚合期间每个python worker进程使用的内存量,格式与JVM内存字符串相同(例如512m,2g)。 。链接

MEMORY_OVERHEAD_FRACTION = 0.10 
MEMORY_OVERHEAD_MINIMUM = 384 
val executorMemoryOverhead = 
  max(MEMORY_OVERHEAD_FRACTION * ${spark.executor.memory}, MEMORY_OVERHEAD_MINIMUM))

属性适用spark.{yarn|mesos}.executor.memoryOverhead于YARN和Mesos。

YARN杀死比他们要求的是这些都占用更多的内存的过程 executorMemoryOverheadexecutorMemory

在给定的图像中,工作进程中的python进程使用 spark.python.worker.memory,然后spark.yarn.executor.memoryOverhead+spark.executor.memory是特定的JVM。

PySpark内部

其他资源Apache邮件线程

python 2022/1/1 18:33:46 有571人围观

撰写回答


你尚未登录,登录后可以

和开发者交流问题的细节

关注并接收问题和回答的更新提醒

参与内容的编辑和改进,让解决方法与时俱进

请先登录

推荐问题


联系我
置顶