Apache Spark MLlib StandardScaler 与 z-score

问题描述 投票:0回答:0

所以,我想知道 Spark 的 StandardScaler 和简单的 z-score 计算之间是否有任何区别。

z-score的计算公式为:

z = (x-mean)/Std

然而,对于 Spark 的 StandardScaler,我不清楚它是如何规范化值的。我找不到任何公式。假设我们将“setWithStd”和“setWithMean”都设置为 true,如下所示:

StandardScaler scaler = new StandardScaler()
  .setInputCol("features")
  .setOutputCol("scaledFeatures")
  .setWithStd(true)
  .setWithMean(true);

这与使用简单的 z-score 计算一样吗?

normalization apache-spark-mllib z-score
© www.soinside.com 2019 - 2024. All rights reserved.