Estoy ejecutando un clúster de un solo nodo usando hadoop versión 1.0.1 y Ubuntu Linux 11.10. Estaba ejecutando un script simple cuando se bloqueó, probablemente porque mi computadora se fue a dormir. He intentado volver a formatear el sistema de archivos utilizando¿Cómo puedo formatear y agregar archivos a hadoop después de que se bloqueó?
bin/hadoop NameNode -format
y obtuve el siguiente error:
ERROR namenode.NameNode: java.io.IOException: No se puede bloquear el almacenamiento/app/hadoop/tmp/dfs/nombre. El directorio ya está bloqueado. en org.apache.hadoop.hdfs.server.common.Storage $ StorageDirectory.lock (Storage.java:602)
intento agregar los archivos de entrada con el comando:
fs bin/Hadoop -copyFromLocal DataDirectory/* .txt inputDirectory
y obtener el error:.
12/04/15 09:05:21 WARN hdfs.DFSClient: DataStreamer Excepción: org.apache.hadoop.ipc.RemoteException: java.io .IOException: File/home/hduser /input/book1.txt solo se pudo replicar en 0 nodos, en lugar de 1
12/04/15 09:05:21 WARN hdfs.DFSClient: Recuperación de error para el bloque nulo bad datanode [0] nodes == null 12/04/15 09:05:21 WARN hdfs.DFSClient: Could not get bloquear ubicaciones Archivo de origen "/home/hduser/input/book1.txt" - Abortando ...
Después, veo los archivos en el directorio de entrada, pero sus tamaños son 0. ¿Alguna idea sobre cómo puedo agregar los archivos? Pude agregar los archivos antes de que se estrellara hadoop, por lo que puedo reinstalar Linux y hadoop, pero parece exagerado. Gracias.
Gracias, Tejas, pero ahora ni siquiera puede conectarse al host local, incluso después de probar ssh. Es extremo, pero estoy reinstalando Linux. – user1106278
¿Qué errores está recibiendo? –
Esto funcionó para mí, excepto que tuve que establecer dfs.name.dir y dfs.data.dir en el archivo hdfs-site.xml. No estoy seguro de por qué no funcionaba antes, ya que ninguna partición estaba casi llena. – MikeKulls