我试图写一个脚本来自动部署Java Dataflow作业。脚本创建了一个模板,然后使用命令 "gcloud "来更新数据流作业。
gcloud dataflow jobs run my-job --gcs-location=gs://my_bucket/template
问题是,如果作业已经存在并且正在运行,我想更新该作业。如果我通过maven运行该作业,我可以进行更新,但我需要通过gcloud进行更新,这样我就可以有一个服务账户用于部署,另一个账户用于运行该作业。我尝试了不同的方法(在命令行中添加--参数更新),但我总是得到一个错误。有没有办法专门通过gcloud dataflow作业运行来更新一个dataflow作业?