Spark驱动程序获取OutOfMemory

问题描述 投票:-1回答:1

我正在使用一个Spark集群,我在驱动程序中面向OutOfMemory。但是在这种情况发生后,应用程序仍然长时间保留资源,并且纱线队列中的其他作业也会挨饿。一旦OutOfMemory被击中并且应用程序被杀死,资源就不会释放出来的共鸣是什么?

apache-spark out-of-memory yarn
1个回答
0
投票

没有足够的信息来回答,但让我试试。 Yarn默认会尝试重新尝试应用程序5次。您可以将尝试更改为1或更少的数字并进行检查。

© www.soinside.com 2019 - 2024. All rights reserved.