Ich habe eine Jar-Datei, die die Mahout-Gläser sowie anderen Code enthält, den ich geschrieben habe. Es funktioniert gut in meiner lokalen Maschine. Ich möchte es in einem Cluster ausführen, auf dem Hadoop bereits installiert ist.
Wenn ich es tue
$ HADOOP_HOME / bin / Hadoopglas myjar.jar Argumente
Ich bekomme den Fehler
Exception in thread "main" java.io.IOException: Mkdirs failed to create /some/hdfs/path (exists=false, cwd=file:local/folder/where/myjar/is)
at org.apache.hadoop.fs.ChecksumFileSystem.create(ChecksumFileSystem.java 440)
...
at org.apache.hadoop.util.RunJar.main(RunJar.java:212)
Ich habe überprüft, dass ich auf das Verzeichnis im hdfs-System zugreifen und es erstellen kann. Ich habe auch einen Hadoop-Code (kein Mahout) ohne Problem laufen lassen.
Ich betreibe dies in einer Linux-Maschine.
Antworten:
0 für die Antwort № 1Überprüfen Sie, ob der Mahout-Benutzer und der Hadoop-Benutzer identisch sind. Überprüfen Sie auch, ob die Mahout- und Hadoop-Version kompatibel ist.
Grüße Jyoti ranjan panda