我正在使用 Spark Databricks 集群,并且想要添加自定义 Spark 配置。
有一个关于此的 Databricks 文档,但我没有得到任何线索,我应该如何以及进行哪些更改。有人可以分享配置 Databricks 集群的示例吗?
有没有办法查看Databricks集群中Spark的默认配置。
您有多种方法来设置默认集群配置:
通过笔记本(如前所述): 在 databricks 笔记本的单元格中,您可以通过运行“spark.conf.set”命令来设置该会话/作业的任何 Spark 配置,如
spark.conf.set("spark.executor.memory","4g")
有用的链接!
理想情况下应该在集群高级选项中有 Spark 配置。
也可以通过 pyspark 代码进行设置。
还有您可以创建的策略,您的集群应该使用它,以便安装库,我认为也可以进行配置。 A