`

之前删除的节点重新加入重启失败

 
阅读更多
2013-08-03 23:26:58,184 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: org.apache.hadoop.ipc.RemoteException: org.apache.hadoop.hdfs.protocol.UnregisteredDatanodeException: Data node 
host69:50010 is attempting to report storage ID DS-1706925804-192.168.6.69-50010-1375452866086. Node 192.168.6.69:50010 is expected to serve this storage.
	at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getDatanode(FSNamesystem.java:4608)
	at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.verifyNodeRegistration(FSNamesystem.java:4573)
	at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.registerDatanode(FSNamesystem.java:2390)
	at org.apache.hadoop.hdfs.server.namenode.NameNode.register(NameNode.java:973)
	at sun.reflect.GeneratedMethodAccessor10.invoke(Unknown Source)
	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)

 重新启动之前坏掉的一个节点的Datanode,发现进程没有启动成功。查看相应日志,

 

原来是namenode节点将它打入了黑名单 
1.修改主节点的exclude.txt文件 
删除此节点所对应的一行 
2.刷新节点信息 
在主节点执行如下命令 
hadoop dfsadmin -refreshNodes 
注意:不要重启集群,风险太大 
3.重新启动datanode 
在datanode节点执行如下命令 
hadoop-daemon.sh start datanode 
重启成功

分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics