/ / Nie można uzyskać obiektu pliku VFS z powodu problemu z nazwą pliku - apache, hadoop, hdfs, pentaho

Nie można uzyskać obiektu pliku VFS dla problemu nazw plików - apache, hadoop, hdfs, pentaho

Jestem nowy w Hadoop, używam apache hadoop 1.0.3 i za pomocą redhat linux 6.0 vm , podczas gdy próbuję załadować przykładowy plik z lokalnego systemu Windows 7 do systemu plików „HDFS” Hadoop, użyłem przykładowych wskazówek z adresu URL:http://wiki.pentaho.com/display/BAD/Loading+Data+into+HDFS , ale podczas uruchamiania zadania pojawia się następujący błąd, ** `

Nie można uzyskać obiektu pliku VFS dla nazwy pliku hdfs: //192.168.10.130: 54310 / home / hduser

Pomóż mi rozwiązać ten problem, z góry dziękuję.

Odpowiedzi:

1 dla odpowiedzi № 1

PDI nie obsługuje Hadoop 1.0.3 po wyjęciu z pudełka, napisałem post na blogu, który opisuje, jak zbudować konfigurację hadoop dla PDI:

http://funpdi.blogspot.com/2013/03/pentaho-data-integration-44-and-hadoop.html

Po utworzeniu konfiguracji hadoop należy ustawić ją jako aktywną zgodnie z instrukcjami tutaj:

http://wiki.pentaho.com/display/BAD/Configuring+Pentaho+for+your+Hadoop+Distro+and+Version