与 Databricks 兼容的 Azure 文件共享解决方案

问题描述 投票:0回答:1

我正在寻找Azure工具服务生态系统中的文件共享解决方案。

目前的需求是能够从一个在Databricks中运行的脚本中写入数千个文件(每周3-4千个),到一个允许其他一些非技术用户访问的存储解决方案中。生成报告的脚本是一个Python脚本,而不是PySpark,尽管它确实在databricks中运行(在它之前有一些PySpark工作)。存储方案必须允许。

1) 从Python中写入保存excel和html的文件

2)用户可以同时查看和下载多个文件(我相信这就把Blob的存储功能给取消了?)

谢谢!我正在寻找Azure生态系统中的文件共享解决方案。

azure blob databricks azure-files
1个回答
1
投票

谢谢你分享你的问题。 如果

Azure确实提供了一个您可以使用的数据共享服务。 Azure 数据共享 可以让你把你的 Python 脚本写入的存储空间和你的非技术用户读取的存储空间分开。

对于第1点,我没有看到任何问题。 Azure 上的存储解决方案大多是与文件类型无关的。 从技术上讲,可以向任何一种存储解决方案写入,主要区别在于写入过程的简单程度或时间长短。

在第2点中,我认为你所暗示的,是你的非技术人员访问存储的容易程度。 从Blob存储中一次下载多个文件是可能的,但门户可能不是最方便的方式。 我建议你考虑一下 Azure存储资源管理器. Azure 存储资源管理器提供了一个客户端应用程序,您的用户可以用它来管理或下载所有 Azure 存储解决方案中的文件。

鉴于您指定 html 文件的方式,以及一次查看多个文件的方式,我怀疑您希望像浏览器一样渲染文件。 许多资源都有一个URI。 如果一个 自足 html文件在Blob存储或ADLS gen2中被公开访问,你在浏览器中导航到它,html页面将呈现。

© www.soinside.com 2019 - 2024. All rights reserved.