/ / "./Sbt/sbt assembly" errori "Non è un comando valido: assembly" per il progetto Apache Spark - scala, sbt, apache-spark

Errori "./sbt/sbt assembly" "Non un comando valido: assembly" per il progetto Apache Spark - scala, sbt, apache-spark

Sto avendo problemi con l'installazione di Apache Spark su Ubuntu 13.04, con l'incubazione a scintilla 0.8.1 e entrambi ./sbt/sbt update e ./sbt/sbt compile funziona bene Tuttavia, quando faccio a ./sbt/sbt assembly Ottengo il seguente errore:

[info] Set current project to default-289e76 (in build  file:/node-insights/server/lib/spark-0.8.1-incubating/sbt/)
[error] Not a valid command: assembly
[error] Not a valid project ID: assembly
[error] Not a valid configuration: assembly
[error] Not a valid key: assembly
[error] assembly
[error]

Ho cercato su Google cose relative a questo, ma non ho trovato nulla di utile. Qualsiasi guida sarebbe molto apprezzata.

risposte:

5 per risposta № 1

Il current project set to default-289e76 messaggio lo suggerisce sbt è stato chiamato dall'esterno della directory delle fonti di Spark:

$  /tmp  ./spark-0.8.1-incubating/sbt/sbt assembly
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins/project
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins
[info] Set current project to default-d0f036 (in build file:/private/tmp/)
[error] Not a valid command: assembly
[error] Not a valid project ID: assembly
[error] Not a valid configuration: assembly
[error] Not a valid key: assembly
[error] assembly
[error]         ^

In esecuzione ./sbt/sbt assembly funziona bene dal spark-0.8.1-incubating directory (notare l'output del registro che mostra che il progetto corrente è stato impostato correttamente):

$  spark-0.8.1-incubating  sbt/sbt assembly
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins/project
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins
[info] Loading project definition from /private/tmp/spark-0.8.1-incubating/project/project
[info] Loading project definition from /private/tmp/spark-0.8.1-incubating/project
[info] Set current project to root (in build file:/private/tmp/spark-0.8.1-incubating/)
...

4 per risposta № 2

Hai digitato "abt" due volte, ma non dovrebbe essere "sbt"? Apache Spark ha una sua copia di sbt, quindi assicurati di eseguire la versione di Spark per raccogliere il plugin "assembly" tra le altre personalizzazioni.

Per eseguire l'installazione Spark di sbt, vai alla directory Spark ed esegui ./sbt/sbt assembly .