Spark 由 Scala/Java 编写的,Spark 的 Driver 和 Executor 是运行在集群中的 JVM 进程,依赖 Java 内存管理和 GC。在生产环境中,通常使用几十上百甚至更大的内存,这在传统的 Java 应用中极为少见。
Spark 通过 spark.driver.extraJavaOptions
和 spark.executor.extraJavaOptions
可以为 Driver 和 Executor 添加额外的 JVM 选项。
开启 JMX:
-Dcom.sun.management.jmxremote.port=<端口号> -Dcom.sun.management.jmxremote.authenticate=false -Dcom.sun.management.jmxremote.ssl=false
即可以通过 JDK 自带的 GUI 工具 jconsole
或 jstat
实时监控程序。
以使用 jstat 查看 GC 为例:
jstat -gc <进程号>@<主机名>:<端口号>
关于 JMX 的更多信息,点击 Monitoring and Management Using JMX Technology 查看。
输出 GC 信息到 Worker 节点的 stdout 输出:
-verbose:gc -XX:+PrintGCDetails -XX:+PrintGCTimeStamps
使用 G1 垃圾收集器, -XX:+UseG1GC
。
如果任务从 HDFS 读取数据,任务使用的内存大小可以通过从 HDFS 数据块大小估计出来。注意,解压缩之后的数据块经常增长两到三倍。所以,如果有四个任务,HDFS 块大小为 128MB,估计 Eden 大小为 4*3*128MB
。
内存大于 4GB 小于 32GB, -XX:+UseCompressedOops
启动指针压缩。