n_jobs
没有GaussianMixture参数。同时,每当我适合模特
from sklearn.mixture import GaussianMixture as GMM
gmm = GMM(n_components=4,
init_params='random',
covariance_type='full',
tol=1e-2,
max_iter=100,
n_init=1)
gmm.fit(X, y)
它跨越16个进程并使用我的16 CPU机器的全部CPU功率。我不希望它这样做。
相比之下,Kmeans具有n_jobs
参数,可在多次初始化时控制多重处理(n_init
> 1)。多处理在这里出乎意料。
我的问题是它来自何处以及如何控制它?
您正在观察基本代数运算的并行处理,加速BLAS / LAPACK。
修改它并不像设置n_jobs
参数那么简单,取决于您使用的实现!
常见的候选人是ATLAS,OpenBLAS和英特尔的MKL。
我建议先检查哪一个使用,然后采取相应措施:
import numpy as np
np.__config__.show()
可悲的是,这些东西可以得到tricky。例如,MKL的有效环境可能看起来像这样(source):
export MKL_NUM_THREADS="2"
export MKL_DOMAIN_NUM_THREADS="MKL_BLAS=2"
export OMP_NUM_THREADS="1"
export MKL_DYNAMIC="FALSE"
export OMP_DYNAMIC="FALSE"
对于ATLAS,似乎你在compile-time定义了这个。
根据this answer,同样适用于OpenBLAS。
在OP测试中,似乎你可以为OpenMP设置环境变量,即使对于开源候选人Atlas和OpenBLAS(编译时限制是另一种选择),也可以改变行为:
export OMP_NUM_THREADS="4";