所以,我想知道 Spark 的 StandardScaler 和简单的 z-score 计算之间是否有任何区别。
z-score的计算公式为:
z = (x-mean)/Std
然而,对于 Spark 的 StandardScaler,我不清楚它是如何规范化值的。我找不到任何公式。假设我们将“setWithStd”和“setWithMean”都设置为 true,如下所示:
StandardScaler scaler = new StandardScaler()
.setInputCol("features")
.setOutputCol("scaledFeatures")
.setWithStd(true)
.setWithMean(true);
这与使用简单的 z-score 计算一样吗?