/ / Hdfs Datanode-Verzeichnis kann nicht geändert werden - hadoop, hdfs, hadoop2, Hochverfügbarkeit

Hdfs datanode directory kann nicht geändert werden - hadoop, hdfs, hadoop2, high-availability

Das Problem ist, dass ich Datanode-Verzeichnis für hdfs Blöcke nicht ändern kann.
Wenn ich diese Eigenschaft in hdfs-site.xml setze, kann ich den Datenknoten nicht ausführen:

<property>
<name>dfs.datanode.data.dir</name>
<value>file:///var/hadoop/datanode</value>
</property>

Der Befehl jps zeigt nicht an, dass der Datenknoten läuft.
Auch ich habe versucht, diese Werte zu verwenden, aber ohne Erfolg:

file:///var/hadoop/datanode
/var/hadoop/datanode
/var/hadoop/datanode/

Ich habe alle Berechtigungen für diesen Ordner:

chmod 777 -R /var/hadoop/datanode

Wenn ich die Eigenschaft dfs.datanode.data.dir aus der Konfigurationsdatei lösche und folgendes ausführe:

hadoop-daemon.sh start datanode

es beginnt. Aber ich weiß nicht, wo Hadoop seine Blöcke speichert.
Bitte helfen Sie mir, ein korrektes Datenverzeichnis für die hdfs zu erstellen.

Antworten:

0 für die Antwort № 1

Keine Ahnung warum. Aber als ich die Berechtigungen für den Datenknoten änderte, begann er zu arbeiten.

chown -R hadoop:hadoop /var/hadoop/datanode