Musím spustiť splach v samostatnom stroji, ktorý jenie je súčasťou dátového uzla HDFS ani názov uzla a musí čítať dáta od Kafky a uložiť ich do HDFS bežiaceho v samostatnom klastri. Je to možné? Dostávam chyby týkajúce sa súborov hadoop jar.
odpovede:
1 pre odpoveď č. 1Apache Flume vyžaduje Hadoop poháre pre HDFS drez pretože čítate údaje Kafka a uloženie späť HDFS.
Pridajte všetky hadoop súvisiace poháre do triedy cesty a potom ju znova spustite.