我们设法使用Spark(odbc)连接器从Azure Data Factory获取有效的连接到Azure Databricks集群。在表的列表中,我们获得了预期的列表,但是在查询特定的表时,我们得到了一个异常。
错误[HY000] [Microsoft] [Hardy](35)服务器出错:错误代码:'0'错误消息:'com.databricks.backend.daemon.data.common.InvalidMountException:使用路径xxxx解析路径xxxx时出错在'/ mnt / xxxx'坐骑。'..活动ID:050ac7b5-3e3f-4c8f-bcd1-106b158231f3
在我们的案例中,存储在Azure Data Lake 2中的Databrick表和已安装的镶木地板文件,这与上述异常有关。有什么建议如何解决这个问题?
PS。从Power BI桌面连接时出现相同的错误。
谢谢巴特
在您安装湖的配置中,您可以添加以下设置:
"fs.azure.createRemoteFileSystemDuringInitialization": "true"
我没有尝试过你的确切场景 - 但是这解决了我使用Databricks-Connect的类似问题。