Google Colab 无法提取保存在我的 Google 云端硬盘中的大文件

问题描述 投票:0回答:2

我正在尝试将 Google Drive 中保存的大文件提取到自身中。我在 Google Workspace Marketplace 中尝试了 Google Drive 应用程序,例如“ZIP Extractor”和“UnRAR 和 RAR 查看器”,但由于文件很大,它们变得没有响应...然后我尝试了名为“unrarfile”和“pyunpack”的 python 包在连接到我的 Google 云端硬盘的 google colab 中。这次提取过程运行得很好,但是在完成提取后,我看到一些第一个文件已保存在谷歌云端硬盘中,但其余的则没有。我尝试将大 .rar 文件拆分为较小的文件,但问题仍然存在。

如果有人遇到同样的问题并有更好的解决方案,我将不胜感激......

python google-drive-api google-colaboratory unzip unrar
2个回答
0
投票

Google colab 是 Google 的免费研究产品。因此资源也有限。

存在配额限制,超过该配额限制,驱动器中的内容将无法解压缩。这个配额每天都会波动,并不固定。

从您的上述问题来看,我猜您已经达到了今天的配额,必须等到明天才能重置。

但请记住,由于您的文件非常大,因此您无法在任何时候在 colab 中解压缩整个文件。

Colab 并不是真正适合大型项目的地方。一种解决方案是进入 Paperspace 并激活付费帐户,以获得无限的数据存储和 GPU 设施。

如有更多疑问,请查看此colab 常见问题页面


0
投票

您可以在colab上多次运行提取程序,直到文件完全提取。 Colab 免费层计划对执行时间有限制,但如果您再次执行代码,它将继续从停止的位置提取。

© www.soinside.com 2019 - 2024. All rights reserved.