使用Spark odbc连接器从Azure Data Factory连接到Databricks表的问题

问题描述 投票:1回答:1

我们设法使用Spark(odbc)连接器从Azure Data Factory获取有效的连接到Azure Databricks集群。在表的列表中,我们获得了预期的列表,但是在查询特定的表时,我们得到了一个异常。

错误[HY000] [Microsoft] [Hardy](35)服务器出错:错误代码:'0'错误消息:'com.databricks.backend.daemon.data.common.InvalidMountException:使用路径xxxx解析路径xxxx时出错在'/ mnt / xxxx'坐骑。'..活动ID:050ac7b5-3e3f-4c8f-bcd1-106b158231f3

在我们的案例中,存储在Azure Data Lake 2中的Databrick表和已安装的镶木地板文件,这与上述异常有关。有什么建议如何解决这个问题?

PS。从Power BI桌面连接时出现相同的错误。

谢谢巴特

powerbi parquet azure-data-factory azure-data-lake azure-databricks
1个回答
0
投票

在您安装湖的配置中,您可以添加以下设置:

"fs.azure.createRemoteFileSystemDuringInitialization": "true"

我没有尝试过你的确切场景 - 但是这解决了我使用Databricks-Connect的类似问题。

© www.soinside.com 2019 - 2024. All rights reserved.