Estoy haciendo el ejemplo de Big Data de AWS: análisis de sentimientos utilizando la transmisión de Hadoop con código Python (enlace a continuación :)
http://blog.newitfarmer.com/anls/analytics-bi/sentiment-analysis-analytics-bi/13436/repost-analyzing-big-data-getting-started-sentiment-analysis
Todo funciona bien "excepto que" el proceso falla porque no puedo acceder al siguiente archivo de clave para el ejemplo:
s3://awsdocs/gettingstarted/latest/sentiment/config–nltk.sh
Sospecho que el problema podría ser que no haya acceso público de lectura a este archivo ...
¿Alguien podría aconsejarme cómo acceder a este archivo de script de shell o cómo copiarlo en mi propia carpeta? (Sé que la sintaxis para la copia de máquina Unix de Amazon Machine es s3cmd put *filename* *copylocation*
pero el promt Unix de AMI no me permite copiar la copia del archivo)
EDITAR: OK, ahora he llegado a la mitad de la solución: Si bien todavía no puedo acceder al archivo, logré copiarlo en mi propia carpeta con el siguiente comando:
s3cmd cp s3://awsdocs/gettingstarted/latest/sentiment/config-nltk.sh s3://mysentimentjobX/
Ahora debería poder poner este archivo por mi cuentaCarpeta y ejecute el trabajo de transmisión de Hadoop desde mi propio S3 bucket. Le haré saber si tengo éxito con el último bit y le diré cómo lo hice (si tengo éxito :))
Respuestas
-1 para la respuesta № 1(Movido de la pregunta de OP):
Parece que el nombre que AWS le dio a este script de ejemplo.(config–nltk.sh) causó problemas al usar - en lugar de _. Cuando copié el archivo a mi propio cubo de S3 cuyo nombre se cambió para usar _, podría ejecutar el ejemplo sin ningún problema.