有没有办法使用gcloud命令更新Dataflow作业?

问题描述 投票:0回答:1

我试图写一个脚本来自动部署Java Dataflow作业。脚本创建了一个模板,然后使用命令 "gcloud "来更新数据流作业。

gcloud dataflow jobs run my-job --gcs-location=gs://my_bucket/template

问题是,如果作业已经存在并且正在运行,我想更新该作业。如果我通过maven运行该作业,我可以进行更新,但我需要通过gcloud进行更新,这样我就可以有一个服务账户用于部署,另一个账户用于运行该作业。我尝试了不同的方法(在命令行中添加--参数更新),但我总是得到一个错误。有没有办法专门通过gcloud dataflow作业运行来更新一个dataflow作业?

google-cloud-dataflow gcloud
1个回答
0
投票

参考 公文,它描述了 gcloud beta dataflow jobs - 一组用于处理Dataflow作业的子命令,不可能使用 gcloud 来更新作业。

目前,Apache Beam SDKs提供了一种在Dataflow托管服务上使用新的管道代码更新正在进行的流式作业的方法,你可以找到更多信息。此处. 更新现有 Dataflow 作业的另一种方法是使用 REST API,在这里你可以找到Java的例子。

此外,请遵循 功能要求 关于再就业 gcloud.

© www.soinside.com 2019 - 2024. All rights reserved.