Spark Dataframe - 获取所有对的列表(Scala)

问题描述 投票:1回答:1

我有以下情况:我有一个带有'array'的数据帧作为模式。现在我想获取每个数组,所有对的列表并将其再次保存在数据帧中。例如:

这是原始数据帧:

+---------------+
|  candidateList|
+---------------+
|         [1, 2]|
|      [2, 3, 4]|
|      [1, 3, 5]|
|[1, 2, 3, 4, 5]|
|[1, 2, 3, 4, 5]|
+---------------+

这就是计算后的样子:

+---------------+
|  candidates   |
+---------------+
|         [1, 2]|
|         [2, 3]|
|         [2, 4]|
|         [3, 4]|
|         [1, 3]|
|         [1, 5]|
|         [3, 5]|
|and so on...   |
+---------------+

我真的不知道火花怎么可能,也许有人给我一个提示。

亲切的问候

雪松穆罕默德

scala apache-spark apache-spark-sql
1个回答
3
投票

您需要创建一个UDF(用户定义函数)并将其与explode函数一起使用。由于Scala集合的combinations方法,UDF本身很简单:

import scala.collection.mutable
import org.apache.spark.sql.functions._
import spark.implicits._

val pairsUdf = udf((arr: mutable.Seq[Int]) => arr.combinations(2).toArray)
val result = df.select(explode(pairsUdf($"candidateList")) as "candidates")

result.show(numRows = 8)
// +----------+
// |candidates|
// +----------+
// |    [1, 2]|
// |    [2, 3]|
// |    [2, 4]|
// |    [3, 4]|
// |    [1, 3]|
// |    [1, 5]|
// |    [3, 5]|
// |    [1, 2]|
// +----------+
© www.soinside.com 2019 - 2024. All rights reserved.