Jestem nowy w Hadoop, używam apache hadoop 1.0.3
i za pomocą redhat linux 6.0 vm
, podczas gdy próbuję załadować przykładowy plik z lokalnego systemu Windows 7 do systemu plików „HDFS” Hadoop, użyłem przykładowych wskazówek z adresu URL:http://wiki.pentaho.com/display/BAD/Loading+Data+into+HDFS , ale podczas uruchamiania zadania pojawia się następujący błąd, ** `
Nie można uzyskać obiektu pliku VFS dla nazwy pliku hdfs: //192.168.10.130: 54310 / home / hduser
Pomóż mi rozwiązać ten problem, z góry dziękuję.
Odpowiedzi:
1 dla odpowiedzi № 1PDI nie obsługuje Hadoop 1.0.3 po wyjęciu z pudełka, napisałem post na blogu, który opisuje, jak zbudować konfigurację hadoop dla PDI:
http://funpdi.blogspot.com/2013/03/pentaho-data-integration-44-and-hadoop.html
Po utworzeniu konfiguracji hadoop należy ustawić ją jako aktywną zgodnie z instrukcjami tutaj:
http://wiki.pentaho.com/display/BAD/Configuring+Pentaho+for+your+Hadoop+Distro+and+Version