/ / flume získanie chyby pri aktualizácii údajov v HDFS - hdfs, flume

chyba počas aktualizácie údajov v HDFS - hdfs, flume

Musím spustiť splach v samostatnom stroji, ktorý jenie je súčasťou dátového uzla HDFS ani názov uzla a musí čítať dáta od Kafky a uložiť ich do HDFS bežiaceho v samostatnom klastri. Je to možné? Dostávam chyby týkajúce sa súborov hadoop jar.

odpovede:

1 pre odpoveď č. 1

Apache Flume vyžaduje Hadoop poháre pre HDFS drez pretože čítate údaje Kafka a uloženie späť HDFS.

Pridajte všetky hadoop súvisiace poháre do triedy cesty a potom ju znova spustite.