首先會出現幾種情況,才會出現啟動不了datanode的情況。
1.首先修改過master那臺的配置文件,
2.屢次hadoop namenode -format這類不好的習慣。
1般會出現1下報錯:
java.io.IOException: Cannot lock storage /usr/hadoop/tmp/dfs/name. The directory is already locked.
或是:
在壞死的節點上輸入以下命令便可:
bin/Hadoop-daemon.sh start DataNode
bin/Hadoop-daemon.sh start jobtracker
如果還不可以的話,那末恭喜你和我遇到的情況1下。
正確的處理方法是,到你的每一個Slave下面去,找到.../usr/hadoop/tmp/dfs/ -ls
會顯示有: data
這里需要把data文件夾刪掉。接著直接在剛才的目錄下啟動hadoop
start-all.sh
接著查看jps
那末就會出現datanode.了
接著去看
http://210.41.166.61(你的master的IP):50070
里面的活節點有多少個?http://210.41.166.61(你的master的ip):50030/
顯示的node數目。
OK,問題解決。