我们的hadoop集群有1000多个节点和20PB数据。因此,我们的NameNode转储文件超过100GB,我们发现很难通过任何工具对其进行分析。有人对如何分析这样的大型jvm转储文件有任何建议吗?
MAT分析带有索引文件的转储文件,可以将大文件映射到许多小文件中,并将索引文件存储到公共文件系统(例如:fastdfs)