我通过将 docker 映像指定为
databricksruntime/standard:15.4-LTS
和身份验证:默认来创建计算集群。
我已将 Spark 配置设置为:
spark.databricks.unityCatalog.volumes.enabled true
。
从附加的笔记本中,我尝试访问我的卷,但只看到以下内容:
!ls /dbfs/Volumes
返回:
安装错误
!cat /dbfs/Volumes/mount.err
返回:
无法识别的存储方案:uc-volumes
知道为什么计算集群无法安装卷吗?
在 Spark 外部的集群上使用卷文件时,您可以使用以下语法来访问它们:
/Volumes/catalog_name/schema_name/volume_name/path/to/files
所以你应该能够
ls /Volumes