我用命令启动了
IPYTHON=1 MASTER=local[4] pyspark
Spark 用
向我打招呼Welcome to spark, version 1.2.1
SparkContext availabel as sc.
但是使用 sc,我无法找到它的内存。如何找到这一点,如果可能的话,如何将其设置为另一个值。
您可以像这样查询SparkContext的配置:
sc._conf.get('spark.executor.memory')
或者,如果您对驾驶员的记忆感兴趣:
sc._conf.get('spark.driver.memory')
完整的配置可以通过
查看为元组列表sc._conf.getAll()
@karlson 的回答很棒,您也可以使用 Spark UI。