默认]
spark-shell --conf spark.hadoop.metastore.catalog.default=hive val df:Dataframe = ... df.write.saveAsTable("db.table")
在尝试写入内部/托管/事务表时失败(请参见How to write a table to hive from spark without using the warehouse connector in HDP 3.1。
如何告诉spark不创建托管表,而是创建外部表?
默认的spark-shell --conf spark.hadoop.metastore.catalog.default = hive val df:Dataframe = ... df.write.saveAsTable(“ db.table”)尝试写入内部/时失败托管/交易...
对于现在来说,默认情况下禁用事务表对我来说似乎是最好的选择。