Zuallererst bin ich ein Nutch / Hadoop-Neuling. Ich habe Cassandra installiert. Ich habe Nutch auf dem Master-Knoten meines EMR-Clusters installiert.
sudo bin/crawl crawl urls -dir crawl -depth 3 -topN 5
Ich bekomme
Error: JAVA_HOME is not set.
Wenn ich den Befehl ohne "Sudo" ausführen, bekomme ich:
Injector: starting at 2014-07-16 02:12:24
Injector: crawlDb: urls/crawldb
Injector: urlDir: crawl
Injector: Converting injected urls to crawl db entries.
Injector: org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: file:/home/hadoop/apache-nutch-1.8/runtime/local/crawl
at org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:197)
at org.apache.hadoop.mapred.FileInputFormat.getSplits(FileInputFormat.java:208)
at org.apache.hadoop.mapred.JobClient.writeOldSplits(JobClient.java:1081)
at org.apache.hadoop.mapred.JobClient.writeSplits(JobClient.java:1073)
at org.apache.hadoop.mapred.JobClient.access$700(JobClient.java:179)
at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:983)
at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:936)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1190)
at org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java:936)
at org.apache.hadoop.mapred.JobClient.submitJob(JobClient.java:910)
at org.apache.hadoop.mapred.JobClient.runJob(JobClient.java:1353)
at org.apache.nutch.crawl.Injector.inject(Injector.java:279)
at org.apache.nutch.crawl.Injector.run(Injector.java:316)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
at org.apache.nutch.crawl.Injector.main(Injector.java:306)
Ich kann das nicht verstehen. Ich habe das andere Forum hier gesehen: Ähnliches Thema
und folgte es ohne Erfolg. Ich habe hinzugefügt
export JAVA_HOME=/usr/lib/jvm/java-7-oracle
und
export PATH=$PATH:${JAVA_HOME}/bin
zu meinem ~ / .bashrc und ich nutze Linux.
Jede Hilfe wird geschätzt !!
Antworten:
0 für die Antwort № 1Das Problem ist, dass ich lief
sudo bin/crawl crawl urls -dir crawl -depth 3 -topN 5
ich benutzte
bin/crawl ./urls/seed.txt TestCrawl http://localhost:8983/solr/ 5
Und alles ist gut, nur ein missgebildeter Befehl. Apache Nutch Tutorial