我有一个名为values
的矢量集合,我正在尝试将其转换为数据帧
scala.collection.immutable.Vector[(String, Double)] = Vector((1,1.0), (2,2.4), (3,3.7), (4,5.0), (5,4.9))
我已经定义了一个自定义模式,并尝试进行转换。
val customSchema = new StructType()
.add("A", IntegerType, true)
.add("B", DoubleType, true)
val df = values.toDF.schema(customSchema)
这给了我一个错误说,
error: overloaded method value apply with alternatives:
(fieldIndex: Int)org.apache.spark.sql.types.StructField <and>
(names: Set[String])org.apache.spark.sql.types.StructType <and>
(name: String)org.apache.spark.sql.types.StructField
cannot be applied to (org.apache.spark.sql.types.StructType)
我已经尝试了所有描述here和here以及StructType documentation的方法来创建模式。但是,所有方法都会导致相同的自定义架构customSchema: org.apache.spark.sql.types.StructType = StructType(StructField(A,IntegerType,true), StructField(B,DoubleType,true))
toDF
方法在没有自定义模式的情况下工作正常。但是我想强制自定义架构。谁能告诉我这里我做错了什么?
schema
是一处房产。当你想获得StructType
或DataFrame
的Dataset
时,你应该使用模式。
val df = values.toDF
df.schema
//prints
StructType(StructField(_1,IntegerType,false), StructField(_2,DoubleType,false))
要将矢量转换为DataFrame
或Dataset
,您可以使用spark.createDataFrame
或spark.createDataset
。这些方法是重载的,他们期望RDD
或JavaRDD
或java.util.List
或Row
和架构信息。您可以执行以下操作将Vector
转换为DataFrame
:
val df = spark.createDataFrame(vec.toDF.rdd, customSchema)
df.schema
//prints
StructType(StructField(A,IntegerType,true), StructField(B,DoubleType,true))
我希望它有所帮助!