程序员人生 网站导航

hadoop集群所有的datanode都启动不利(处理办法)

栏目:服务器时间:2015-01-19 08:21:50

首先会出现几种情况,才会出现启动不了datanode的情况。

1.首先修改过master那台的配置文件,

2.屡次hadoop namenode -format这类不好的习惯。

1般会出现1下报错:

java.io.IOException: Cannot lock storage /usr/hadoop/tmp/dfs/name. The directory is already locked.

或是:

[root@hadoop current]# hadoop-daemon.sh start datanode
starting datanode, logging to /usr/local/hadoop1.1/libexec/../logs/hadoop-root-datanode-hadoop.out
[root@hadoop ~]# jps
jps命令发现没有datanode启动

对这类情况请先试1下:

在坏死的节点上输入以下命令便可:

bin/Hadoop-daemon.sh start DataNode 

bin/Hadoop-daemon.sh start jobtracker

如果还不可以的话,那末恭喜你和我遇到的情况1下。


正确的处理方法是,到你的每一个Slave下面去,找到.../usr/hadoop/tmp/dfs/  -ls

会显示有: data

这里需要把data文件夹删掉。接着直接在刚才的目录下启动hadoop

start-all.sh

接着查看jps

那末就会出现datanode.了

接着去看

http://210.41.166.61(你的master的IP):50070

里面的活节点有多少个?

http://210.41.166.61(你的master的ip):50030/

显示的node数目。


OK,问题解决。



------分隔线----------------------------
------分隔线----------------------------

最新技术推荐