Sto avendo problemi con l'installazione di Apache Spark su Ubuntu 13.04, con l'incubazione a scintilla 0.8.1 e entrambi ./sbt/sbt update
e ./sbt/sbt compile
funziona bene Tuttavia, quando faccio a ./sbt/sbt assembly
Ottengo il seguente errore:
[info] Set current project to default-289e76 (in build file:/node-insights/server/lib/spark-0.8.1-incubating/sbt/)
[error] Not a valid command: assembly
[error] Not a valid project ID: assembly
[error] Not a valid configuration: assembly
[error] Not a valid key: assembly
[error] assembly
[error]
Ho cercato su Google cose relative a questo, ma non ho trovato nulla di utile. Qualsiasi guida sarebbe molto apprezzata.
risposte:
5 per risposta № 1Il current project set to default-289e76
messaggio lo suggerisce sbt
è stato chiamato dall'esterno della directory delle fonti di Spark:
$ /tmp ./spark-0.8.1-incubating/sbt/sbt assembly
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins/project
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins
[info] Set current project to default-d0f036 (in build file:/private/tmp/)
[error] Not a valid command: assembly
[error] Not a valid project ID: assembly
[error] Not a valid configuration: assembly
[error] Not a valid key: assembly
[error] assembly
[error] ^
In esecuzione ./sbt/sbt assembly
funziona bene dal spark-0.8.1-incubating
directory (notare l'output del registro che mostra che il progetto corrente è stato impostato correttamente):
$ spark-0.8.1-incubating sbt/sbt assembly
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins/project
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins
[info] Loading project definition from /private/tmp/spark-0.8.1-incubating/project/project
[info] Loading project definition from /private/tmp/spark-0.8.1-incubating/project
[info] Set current project to root (in build file:/private/tmp/spark-0.8.1-incubating/)
...
4 per risposta № 2
Hai digitato "abt" due volte, ma non dovrebbe essere "sbt"? Apache Spark ha una sua copia di sbt, quindi assicurati di eseguire la versione di Spark per raccogliere il plugin "assembly" tra le altre personalizzazioni.
Per eseguire l'installazione Spark di sbt, vai alla directory Spark ed esegui ./sbt/sbt assembly
.