J'ai installé Hadoop version 1.0.3 et son plugin eclipse associé avec succès. Toutes les fonctionnalités et les exemples de Hadoop fonctionnent plutôt bien, mais lorsque je veux utiliser son plug-in sur eclipse, il ne peut pas se connecter à hdfs et j'obtiens l'erreur suivante:
Une erreur interne s'est produite lors de: "Connexion à DFS localhost". org / apache / commons / configuration / Configuration.
Quelqu'un pourrait-il m'aider à résoudre ce problème! Merci
Réponses:
0 pour la réponse № 1Vous faites face à ce problème parce que le plugin estmanque quelques pots nécessaires. Afin de résoudre le problème, vous devez reconstruire le plugin après avoir inclus les fichiers JAR nécessaires. J'ai souvent vu ce genre de questions sur SO, et elles indiquent toutes la même chose. S'il vous plaît voir ces liens:
Hadoop eclipse mapreduce ne fonctionne pas?
Installation du plugin Eclipse de Hadoop
0 pour la réponse № 2
J'ai suivi les instructions de blog suivantes pour créer le plugin 1.0.4 Hadoop eclipse: http://iredlof.com/part-4-compile-hadoop-v1-0-4-eclipse-plugin-on-ubuntu-12-10/
mais il semble y avoir des parties manquantes comme:
dans MANIFEST.MF vous devriez ajouter:
/lib/commons-cli-1.2.jar
et en build-contrib.xml vous devriez aussi ajouter:
<property name="commons-cli.version" value="1.2"/>
J'espère que cela vous sera utile!
0 pour la réponse № 3
vous devez d'abord exécuter hadoop avec la ligne de commande!
./[hadoop-path]/bin/start-all.sh