我正在在AWS Cloud上部署AWS Elastic Kubernetes集群。从本地计算机部署群集时,我遇到了一个小错误,即使我们不能确切地说这是一个错误。
因此,当我使用本地计算机上的Terraform图表部署eks集群时,它将在AWS上部署所有基础设施需求,但是当它必须部署集群时,它倾向于通过kubectl进行部署,但是kubectl并非如此配置了新创建的集群,然后terraform抛出错误。
我可以使用以下命令通过将kubectl与新创建的集群绑定来轻松解决此错误,但是我不想手动进行操作,有什么办法可以用相同的方式配置kubectl。
命令-aws eks --region us-west-2 update-kubeconfig --name clustername
FYI-我正在使用AWS CLI。
您可以使用terraform local-exec provisioner。
resource "null_resource" "kubectl" {
provisioner "local-exec" {
command = "aws eks --region us-west-2 update-kubeconfig --name clustername"
}
}
}