如何检查PySpark使用的核心数量?

问题描述 投票:2回答:1

我安装了VirtualBox(Ubuntu 18.04.2 64位)和PySpark 2.4.0。当我创建一个VB时,我把4个CPU放到最大。

我该怎么检查Spark使用了多少核心?

apache-spark ubuntu pyspark virtualbox cpu-cores
1个回答
0
投票

这取决于描述要使用的运行时环境(集群管理器)的master URL

由于这是一个低级别的面向基础架构的东西,你可以通过查询SparkContext实例找到答案。

例如。如果它是local[*]意味着你想要使用本地JVM上可用的尽可能多的CPU(星形部分)。

$ ./bin/pyspark
Python 2.7.15 (default, Feb 19 2019, 09:17:37)
[GCC 4.2.1 Compatible Apple LLVM 10.0.0 (clang-1000.11.45.5)] on darwin
...
Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /__ / .__/\_,_/_/ /_/\_\   version 2.4.0
      /_/

Using Python version 2.7.15 (default, Feb 19 2019 09:17:37)
SparkSession available as 'spark'.
>>> print sc.master
local[*]
>>> print sc.defaultParallelism
8
© www.soinside.com 2019 - 2024. All rights reserved.