/ / Fonction Sqoop '--map-column-ruche' étant ignorée - hadoop, ruche, sqoop, apache-sqoop

Fonction Sqoop '--map-column-ruche' étant ignorée - hadoop, ruche, sqoop, apache-sqoop

J'essaie d'importer un fichier dans une ruche en tant que parquetet le --map-column-hive nom_colonne = horodatage est ignoré. La colonne "nom_colonne" est à l'origine de type datetime in sql et la convertit en bigint dans parquet. Je veux le convertir au format timestamp via sqoop mais cela ne fonctionne pas.

sqoop import 

--table table_name 

--driver com.microsoft.sqlserver.jdbc.SQLServerDriver 

--connect jdbc:sqlserver://servername 

--username user --password pw 

--map-column-hive column_name=timestamp

--as-parquetfile 

--hive-import 

--hive-table table_name -m 1

Lorsque je visualise la table dans ruche, il affiche toujours la colonne avec son type de données d'origine.

J'ai essayé nom_colonne = chaîne et cela n'a pas fonctionné non plus.

Je pense que cela peut être un problème avec la conversion de fichiers en parquet, mais je ne suis pas sûr. Quelqu'un at-il une solution pour résoudre ce problème?

Je ne reçois aucune erreur lors de l'exécution de la commande, elle complète simplement l'importation comme si la commande n'existait pas.

Réponses:

0 pour la réponse № 1

Avant la version hive 1.2, la prise en charge de Timestmap dans ParquetSerde n’est pas disponible. Seul le support de type de données binaire est disponible dans 1.1.0.

S'il vous plaît, vérifiez le lien

Veuillez mettre à jour votre version à 1.2 et après, cela devrait fonctionner.

Please check the issue log and release notes below.

https://issues.apache.org/jira/browse/HIVE-6384

https://issues.apache.org/jira/secure/ReleaseNote.jspa?version=12329345&styleName=Text&projectId=12310843