我已经查看了通过答案类似的问题,但没有一个解决了我遇到的问题。一些 hadoop 命令似乎可以工作(例如 hadoop fs -cat),而其他命令则不能(hadoop fs -ls,引发此错误)
甚至似乎找到了 winutils
我的同一目录和 Windows/System32 文件夹中也有 hadoop.dll,但在重新启动计算机后它似乎仍然无法工作。
这里确实令人头疼,因为如果有东西坏了,我不会期望部分功能
Hadoop版本是3.3.6
Java 版本为“1.8.0_202”
Spark 是 3.5.3
我将 Hadoop 版本更改为 3.2.2,它现在可以工作了,但说实话我不知道为什么
似乎很多 Hadoop 的文档记录都很差,除了像我一样通过反复试验来解决这个问题之外,我不确定在哪里可以阅读版本控制问题(假设就是这样)