如何进行 BigQuery 数据备份以最大限度地降低财务成本?

问题描述 投票:0回答:1

我正在帮助关闭一家即将破产的组织。其中一项任务是出于合法目的对 BigQuery 中的所有数据集进行至少 5 年的备份。由于时间相当长,我想尽可能减少成本。

由于我们将关闭公司的 Google 工作区,因此我们创建了一个新的备份帐户来传输所有数据。 我们尝试了以下方法:

  • 将数据集导出到 Google Cloud Storage。此选项仅允许在同一帐户中使用。我找不到迁移到另一个帐户的选项。
  • 将项目转移到另一个帐户。此选项似乎是最简单的选项,但迫使我们在备用帐户中进行新的付费订阅。这是财务成本最高的选项。
  • 将所有数据集导出到本地文件并上传到另一种存储中。这是工作量最大的,因为无法批量导出数据集。我想我可以使用 DataFLow 进行数据迁移,但找不到任何有关如何执行此操作的示例。

我很高兴找到新想法。谢谢!

google-cloud-platform google-bigquery dataset cost-management backup-strategies
1个回答
0
投票

按照 Guillaume 的建议,您可以尝试将所有表导出到云存储。然后,做你想做的事:将类设置为存档以最小化成本,下载文件,gzip它们,然后将它们上传到你想要的地方(Google Drive,云存储存档类),...无论如何,云存储都是下一步所需的通过点!

将答案发布为社区 wiki,以造福于将来可能遇到此用例的社区。请随意编辑此答案以获取更多信息。

© www.soinside.com 2019 - 2024. All rights reserved.