我有一个带有嵌入式 Spark 库的应用程序。使用 Spark-Core v3.3.2 一切正常。 升级到 >= 3.4.4 后,获取 SparkSession 会导致 slf4j 内出现 stackoverflow 异常。
我尝试找出更改的内容并尝试重新配置日志记录,但没有任何效果。
Caused by: java.lang.StackOverflowError
at java.base/java.time.Clock$SystemClock.instant(Clock.java:529)
at java.base/java.time.Instant.now(Instant.java:273)
at java.logging/java.util.logging.LogRecord.<init>(LogRecord.java:229)
at org.slf4j.impl.JDK14LoggerAdapter.log(JDK14LoggerAdapter.java:576)
at org.slf4j.impl.JDK14LoggerAdapter.log(JDK14LoggerAdapter.java:632)
at org.slf4j.bridge.SLF4JBridgeHandler.callLocationAwareLogger(SLF4JBridgeHandler.java:232)
at org.slf4j.bridge.SLF4JBridgeHandler.publish(SLF4JBridgeHandler.java:313)
at java.logging/java.util.logging.Logger.log(Logger.java:979)
at org.slf4j.impl.JDK14LoggerAdapter.log(JDK14LoggerAdapter.java:582)
at org.slf4j.impl.JDK14LoggerAdapter.log(JDK14LoggerAdapter.java:632)
at org.slf4j.bridge.SLF4JBridgeHandler.callLocationAwareLogger(SLF4JBridgeHandler.java:232)
有什么建议吗?
我尝试过切换 sl4j-nop 和 slf4j-simple 配置。 我尝试过使用 Spark 3.5.4。 我尝试过切换日志记录级别
没有任何帮助