/ / "./Sbt/sbt assembly" "Erreur" commande non valide: assembly "pour le projet Apache Spark - scala, sbt, apache-spark

Erreurs «./sbt/sbt assembly» «Commande non valide: assembly» pour le projet Apache Spark - scala, sbt, apache-spark

Je ne parviens pas à installer Apache Spark sur Ubuntu 13.04. J'utilise spark-0.8.1-incubating, et les deux ./sbt/sbt update et ./sbt/sbt compile fonctionne bien. Cependant, quand je fais un ./sbt/sbt assembly Je reçois l'erreur suivante:

[info] Set current project to default-289e76 (in build  file:/node-insights/server/lib/spark-0.8.1-incubating/sbt/)
[error] Not a valid command: assembly
[error] Not a valid project ID: assembly
[error] Not a valid configuration: assembly
[error] Not a valid key: assembly
[error] assembly
[error]

J’ai cherché sur Google des choses liées à cela, mais je n’ai rien trouvé d’utile. Toute orientation serait très appréciée.

Réponses:

5 pour la réponse № 1

le current project set to default-289e76 message suggère que sbt a été appelé en dehors du répertoire des sources Spark:

$  /tmp  ./spark-0.8.1-incubating/sbt/sbt assembly
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins/project
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins
[info] Set current project to default-d0f036 (in build file:/private/tmp/)
[error] Not a valid command: assembly
[error] Not a valid project ID: assembly
[error] Not a valid configuration: assembly
[error] Not a valid key: assembly
[error] assembly
[error]         ^

Fonctionnement ./sbt/sbt assembly fonctionne bien de la spark-0.8.1-incubating répertoire (notez la sortie du journal indiquant que le projet actuel a été défini correctement):

$  spark-0.8.1-incubating  sbt/sbt assembly
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins/project
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins
[info] Loading project definition from /private/tmp/spark-0.8.1-incubating/project/project
[info] Loading project definition from /private/tmp/spark-0.8.1-incubating/project
[info] Set current project to root (in build file:/private/tmp/spark-0.8.1-incubating/)
...

4 pour la réponse № 2

Vous avez tapé "abt" deux fois, mais cela ne devrait pas être "sbt"? Apache Spark a sa propre copie de sbt, assurez-vous donc que vous utilisez la version de Spark pour récupérer le plugin "assembly" parmi d'autres personnalisations.

Pour exécuter l’installation de sbt par Spark, accédez au répertoire Spark et exécutez ./sbt/sbt assembly .