/ / Błąd wykonania, kod powrotu 1 z org.apache.hadoop.hive.ql.exec.DDLTask. com / mongodb / util / JSON - json, mongodb, hadoop, hive

Błąd wykonania, kod powrotu 1 z org.apache.hadoop.hive.ql.exec.DDLTask. com / mongodb / util / JSON - json, mongodb, hadoop, hive

Próbuję połączyć MongoDb z Hadoop. Mam zainstalowany Hadoop-1.2.1 w moim Ubuntu 14.04. Zainstalowałem MongoDB-3.0.4, a także pobrałem i dodałem mongo-hadoop-hive-1.3.0.jar, mongo-java-driver-2.13.2.jar słoiki w sesji ula. Pobrałem mongo-connector.sh (Znaleziono w tym teren) i umieścił go pod Hadoop_Home / lib.

Ustawiłem źródła wejściowe i wyjściowe w następujący sposób:

hive> set MONGO_INPUT=mongodb://[user:password@]<MongoDB Instance IP>:27017/DBname.collectionName;
hive> set MONGO_OUTPUT=mongodb://[user:password@]<MongoDB Instance IP>:27017/DBname.collectionName;
hive> add JAR brickhouse-0.7.0.jar;
hive> create temporary function collect as "brickhouse.udf.collect.CollectUDAF";

Moja kolekcja w MongoDb jest następująca:

> db.shows.find()
{ "_id" : ObjectId("559eb22fa7999b1a5f50e4e6"), "title" : "Arrested Development", "airdate" : "November 2, 2003", "network" : "FOX" }
{ "_id" : ObjectId("559eb238a7999b1a5f50e4e7"), "title" : "Stella", "airdate" : "June 28, 2005", "network" : "Comedy Central" }
{ "_id" : ObjectId("559eb23ca7999b1a5f50e4e8"), "title" : "Modern Family", "airdate" : "September 23, 2009", "network" : "ABC" }
> 

Teraz próbuję utworzyć tabelę Hive

CREATE EXTERNAL TABLE mongoTest(title STRING,network STRING)
> STORED BY "com.mongodb.hadoop.hive.MongoStorageHandler"
> WITH SERDEPROPERTIES("mongo.columns.mapping"="{"title":"name",”airdate”:”date”,”network”:”name”}")
> TBLPROPERTIES("mongo.uri"="${hiveconf:MONGO_INPUT}");

Kiedy uruchomię to polecenie, mówi

FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. com/mongodb/util/JSON

Potem dodałem hive-json-serde.jar i hive-serdes-1.0-SNAPSHOT.jar słoiki i spróbował ponownie stworzyć stół. Ale błąd pozostaje ten sam. Jak mogę naprawić ten błąd?

Odpowiedzi:

3 dla odpowiedzi № 1

Właściwie to dodałem mongo-hadoop-core-1.3.0.jar , mongo-hadoop-hive-1.3.0.jar i mongo-java-driver-2.13.2.jar słoiki w folderze Hadoop_Home / lib. Wtedy mogłem pobrać dane z MongoDb do Hive bez żadnych błędów.


1 dla odpowiedzi nr 2

Są inteligentne cytaty, które analizuje parser - "

 ”airdate”:”date”,”network”:”name”

Powinni być

 "airdate":"date","network":"name"