Sé que es posible distribuir trabajos a través de un clúster de hadoop. También sé que es posible leer y escribir semi-directamente en bases de datos SQL desde un sistema hadoop.
Mi pregunta está más dirigida como, se hace, enEn el mundo real, esos datos se leen y escriben desde archivos y una base de datos relacional desde trabajos de hadoop y luego, después del procesamiento, se vuelven a escribir en la base de datos relacional. Entonces, usar hadoop directamente como equilibrador de procesos, con algo como hibernar y sin el uso de HDFS.
Gracias
Respuestas
1 para la respuesta № 1Esto no es posible. Debido a que no tendrá acceso a los registros en la configuración y limpieza de tareas del asignador y el reductor. Fuera de hdfs, la única forma de ejecutar los trabajos es ingresar / salir con el sistema de archivos local.