Pyspark,从 DF 获取行,其值为指定列中的最小值

问题描述 投票:0回答:0

让 df1 包含一列“col1”,让其中的值例如[1,1,1,5,3,2]。 所以col1的最小值是1,可以发现例如通过使用 min() 函数。

但是如何从 df 中仅获取 col1 中的值等于该最小值的行?

我已经解决了这个问题:

min_value = df.select(min("col1")).collect()[0][0] # get min value
df = df.filter((col("col1") == min_value))

但我想应该有更合适的方法。

python dataframe pyspark
© www.soinside.com 2019 - 2024. All rights reserved.