Я встановлюю Hortonworks Data Platform 2.2 вручну на CentOS 6.5 64bit з RPM. Під час формування NameNode помилка параметрів "Невдале"
Це інструкції згідно з інструкцією:
Format and Start HDFS
1. Execute these commands at the NameNode host machine:
su - hdfs
/usr/hdp/current/hadoop-hdfs-namenode/../hadoop/sbin/hadoop-daemon.sh
namenode -format
/usr/hdp/current/hadoop-hdfs-namenode/../hadoop/sbin/hadoop-daemon.sh -
-config $HADOOP_CONF_DIR start namenode
Але під час команди формату:
[root@virtual ~]# su - hdfs
[hdfs@virtual ~]$ /usr/hdp/current/hadoop-hdfs-namenode/../hadoop/sbin/hadoop-daemon.sh namenode -format
Usage: hadoop-daemon.sh [--config <conf-dir>] [--hosts hostlistfile] [--script script] (start|stop) <hadoop-command> <args...>
Це не проходить перевірку параметрів:
# Runs a Hadoop command as a daemon.
#
# Environment Variables
#
# HADOOP_CONF_DIR Alternate conf dir. Default is ${HADOOP_PREFIX}/conf.
# HADOOP_LOG_DIR Where log files are stored. PWD by default.
# HADOOP_MASTER host:path where hadoop code should be rsync"d from
# HADOOP_PID_DIR The pid files are stored. /tmp by default.
# HADOOP_IDENT_STRING A string representing this instance of hadoop. $USER by default
# HADOOP_NICENESS The scheduling priority for daemons. Defaults to 0.
##
export HADOOP_HOME=/usr/hdp/2.2.0.0-2041/hadoop
usage="Usage: hadoop-daemon.sh [--config <conf-dir>] [--hosts hostlistfile] [--script script] (start|stop) <hadoop-command> <args...>"
# if no args specified, show usage
if [ $# -le 1 ]; then
echo $usage
exit 1
fi
Я не впевнений, що це помилка в сценарії чи вручну ...
Будь-який натяк допоможе
Дякую
Відповіді:
0 для відповіді № 1Для форматування NameNode можна скористатися наступною командою, що виконується як адміністратор користувача "hdfs":
/usr/bin/hdfs namenode -format
Для запуску демона NameNode використовуйте сценарій hadoop-daemon.sh:
/usr/hdp/current/hadoop-hdfs-namenode/../hadoop/sbin/hadoop-daemon.sh start namenode
"-config $ HADOOP_CONF_DIR" є необов'язковим параметром, якщо ви хочете посилатися на певний каталог конфігурації Hadoop.