我正在寻找Azure工具服务生态系统中的文件共享解决方案。
目前的需求是能够从一个在Databricks中运行的脚本中写入数千个文件(每周3-4千个),到一个允许其他一些非技术用户访问的存储解决方案中。生成报告的脚本是一个Python脚本,而不是PySpark,尽管它确实在databricks中运行(在它之前有一些PySpark工作)。存储方案必须允许。
1) 从Python中写入保存excel和html的文件
2)用户可以同时查看和下载多个文件(我相信这就把Blob的存储功能给取消了?)
谢谢!我正在寻找Azure生态系统中的文件共享解决方案。
谢谢你分享你的问题。 如果
Azure确实提供了一个您可以使用的数据共享服务。 Azure 数据共享 可以让你把你的 Python 脚本写入的存储空间和你的非技术用户读取的存储空间分开。
对于第1点,我没有看到任何问题。 Azure 上的存储解决方案大多是与文件类型无关的。 从技术上讲,可以向任何一种存储解决方案写入,主要区别在于写入过程的简单程度或时间长短。
在第2点中,我认为你所暗示的,是你的非技术人员访问存储的容易程度。 从Blob存储中一次下载多个文件是可能的,但门户可能不是最方便的方式。 我建议你考虑一下 Azure存储资源管理器. Azure 存储资源管理器提供了一个客户端应用程序,您的用户可以用它来管理或下载所有 Azure 存储解决方案中的文件。
鉴于您指定 html 文件的方式,以及一次查看多个文件的方式,我怀疑您希望像浏览器一样渲染文件。 许多资源都有一个URI。 如果一个 自足 html文件在Blob存储或ADLS gen2中被公开访问,你在浏览器中导航到它,html页面将呈现。