Je ne parviens pas à installer Apache Spark sur Ubuntu 13.04. J'utilise spark-0.8.1-incubating, et les deux ./sbt/sbt update
et ./sbt/sbt compile
fonctionne bien. Cependant, quand je fais un ./sbt/sbt assembly
Je reçois l'erreur suivante:
[info] Set current project to default-289e76 (in build file:/node-insights/server/lib/spark-0.8.1-incubating/sbt/)
[error] Not a valid command: assembly
[error] Not a valid project ID: assembly
[error] Not a valid configuration: assembly
[error] Not a valid key: assembly
[error] assembly
[error]
J’ai cherché sur Google des choses liées à cela, mais je n’ai rien trouvé d’utile. Toute orientation serait très appréciée.
Réponses:
5 pour la réponse № 1le current project set to default-289e76
message suggère que sbt
a été appelé en dehors du répertoire des sources Spark:
$ /tmp ./spark-0.8.1-incubating/sbt/sbt assembly
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins/project
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins
[info] Set current project to default-d0f036 (in build file:/private/tmp/)
[error] Not a valid command: assembly
[error] Not a valid project ID: assembly
[error] Not a valid configuration: assembly
[error] Not a valid key: assembly
[error] assembly
[error] ^
Fonctionnement ./sbt/sbt assembly
fonctionne bien de la spark-0.8.1-incubating
répertoire (notez la sortie du journal indiquant que le projet actuel a été défini correctement):
$ spark-0.8.1-incubating sbt/sbt assembly
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins/project
[info] Loading global plugins from /Users/joshrosen/.dotfiles/.sbt/plugins
[info] Loading project definition from /private/tmp/spark-0.8.1-incubating/project/project
[info] Loading project definition from /private/tmp/spark-0.8.1-incubating/project
[info] Set current project to root (in build file:/private/tmp/spark-0.8.1-incubating/)
...
4 pour la réponse № 2
Vous avez tapé "abt" deux fois, mais cela ne devrait pas être "sbt"? Apache Spark a sa propre copie de sbt, assurez-vous donc que vous utilisez la version de Spark pour récupérer le plugin "assembly" parmi d'autres personnalisations.
Pour exécuter l’installation de sbt par Spark, accédez au répertoire Spark et exécutez ./sbt/sbt assembly
.