hadoop 部分问题
1.hadoop使用start-all.sh啟動(dòng)時(shí)namenode啟不了
查看namenode日志:
WARN org.apache.hadoop.hdfs.qjournal.client.QuorumJournalManager: Remote journal 192.168.146.212:8485 failed to write txns 124097-124097. Will tryto write to this JN again after the next log roll. org.apache.hadoop.ipc.RemoteException(java.io.IOException):Cannot lock storage /home/hadoop/app/hdfs/hadoop/journaldata/hf. The directory is already locked分析:連接不了8485端口,也就是journalnode
start-all.sh啟動(dòng)集群,journalnode(端口8485)是在namenode后啟動(dòng)的。默認(rèn)情況下namenode啟動(dòng)10s(maxRetries=10, sleepTime=1000)后journalnode還沒(méi)有啟動(dòng),就會(huì)報(bào)上述錯(cuò)誤。
解決:
1.手動(dòng)啟動(dòng)namenode
2.修改core-site.xml中的ipc參數(shù),如果沒(méi)有就添加如下參數(shù)
<!--修改core-site.xml中的ipc參數(shù),防止出現(xiàn)連接journalnode服務(wù)ConnectException--><property><name>ipc.client.connect.max.retries</name><value>100</value><description>Indicates the number of retries a client will make to establish a server connection.</description></property><property><name>ipc.client.connect.retry.interval</name><value>10000</value><description>Indicates the number of milliseconds a client will wait for before retrying to establish a server connection.</description></property>注意:
1) 僅對(duì)于這種由于服務(wù)沒(méi)有啟動(dòng)完成造成連接超時(shí)的問(wèn)題,都可以調(diào)整core-site.xml中的ipc參數(shù)來(lái)解決。如果目標(biāo)服務(wù)本身沒(méi)有啟動(dòng)成功,這邊調(diào)整ipc參數(shù)是無(wú)效的。
2) 該配置使namenode連接journalnode最大時(shí)間增加至1000s(maxRetries=100, sleepTime=10000),假如集群節(jié)點(diǎn)數(shù)過(guò)多,或者網(wǎng)絡(luò)情況不穩(wěn)定,造成連接時(shí)間超過(guò)1000s,仍會(huì)導(dǎo)致namenode掛掉。
參考:https://blog.csdn.net/chuyouyinghe/article/details/78976933
總結(jié)
以上是生活随笔為你收集整理的hadoop 部分问题的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 疯狂教授挑战在水底生活 100 天,想要
- 下一篇: kylin 部分问题