如何借助azure Databricks高效地将MongoDB迁移到azure CosmosDB?

问题描述 投票:0回答:2

在寻找使用 Mongo API 将本地 MongoDB 迁移到 Azure CosmosDB 的服务时,我们遇到了名为 Azure Data Bricks 的服务。我们总共有 186GB 的数据。我们需要以尽可能少的停机时间迁移到 CosmosDB。我们如何才能提高数据传输速率呢?如果有人可以对 Azure 提供的基于 Spark 的 PaaS 提供一些见解,那将会非常有帮助。 谢谢你

mongodb azure azure-cosmosdb database-migration azure-databricks
2个回答
0
投票

您是否参考过我们文档页面上给出的文章?

一般来说,您可以假设迁移工作负载可以消耗整个配置的吞吐量,配置的吞吐量将给出迁移速度的估计。您可以考虑在迁移时增加 RU,然后再减少。

可以通过这些配置来调整迁移性能:

  • Number of workers and cores in the Spark cluster
  • maxBatchSize
  • Disable indexes during data transfer

0
投票

迟到总比不到好!我们正在构建 dsync 来简化从 Cosmos 到 MongoDB 的在线迁移过程。它快速、可靠、非常易于使用,并且根本不需要任何设置:

dsync -s SOURCE -d DESTINATION

它也应该以另一种方式工作——从 MongoDB 到 Cosmos。查看文档博客文章了解更多详细信息!

© www.soinside.com 2019 - 2024. All rights reserved.