Трябва да стартирам фюм в отделна машина, която ене е част от възела за данни на HDFS или възел на име и трябва да чете данни от Kafka и да я съхранява в HDFS, изпълнявани в отделен клъстер. Може ли да се направи? Получавам грешки, свързани със съдържанието на хапчетата.
Отговори:
1 за отговор № 1Apache Flume изисква буркани от Hadoop за HDFS мивка тъй като четете данни от Кафка и да се съхранява отново HDFS.
Моля, добавете всички буркани, които са свързани със самула, в пътя на класа и след това го повторете.