当执行者核心大于Spark任务数量时会发生什么?这种情况可能吗?如果是,额外核心会发生什么?
我认为这个问题有点离题。您提出的要求不太可能。为什么?
[在大多数情况下,您不太可能拥有10,000个执行者核心的集群,但是有些站点拥有该核心,这是事实。
如果您分配的核心数量超过了所需数量,那么它们将保持空闲状态,无法供其他用户使用。但是通过动态资源分配,可以放弃执行者。我曾与YARN和Spark Standalone合作,但不确定K8的情况。