如何将 PySpark Pandas Dataframe 转换为 PySpark Dataframe?

问题描述 投票:0回答:1

我有一个数据集存储在

pyspark.pandas.frame.DataFrame
中,我想在将其保存到增量文件之前将其转换为
pyspark.sql.DataFrame
。哪种方法才是正确的?

P.S:这样做的原因是因为我想在将其保存到增量时强制执行写入模式。但是,PySpark Panda 的

to_delta
方法似乎不接受模式参数。

提前致谢

python pandas apache-spark pyspark
1个回答
0
投票

只需将@Emma 的评论放在问题下作为其他人的答案。使用

df.to_spark()

© www.soinside.com 2019 - 2024. All rights reserved.