给hbase增加协处理器报ERROR: org.apache.hadoop.hbase.DoNotRetryIOException:错误
生活随笔
收集整理的這篇文章主要介紹了
给hbase增加协处理器报ERROR: org.apache.hadoop.hbase.DoNotRetryIOException:错误
小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
剛開(kāi)始,我輸入?yún)f(xié)處理器的語(yǔ)法是這樣子輸入的(隔了好幾天,我又用這個(gè)語(yǔ)法,又能行了,郁悶):
alter 'publicDataset:comment',METHOD =>'table_att','coprocessor'=>'hdfs://node1:8020/putJar/test-corprocessor.jar|com.train.endpointserver.SimilarityServer|1001|'但是一直報(bào)錯(cuò),后來(lái)看報(bào)錯(cuò)提示說(shuō)
You can add a table coprocessor by setting a table coprocessor attribute:hbase> alter 't1','coprocessor'=>'hdfs:///foo.jar|com.foo.FooRegionObserver|1001|arg1=1,arg2=2'Since you can have multiple coprocessors configured for a table, a sequence number will be automatically appended to the attribute name to uniquely identify it.The coprocessor attribute must match the pattern below in order for the framework to understand how to load the coprocessor classes:[coprocessor jar file location] | class name | [priority] | [arguments]倒數(shù)第二段說(shuō)必須遵守這種格式,然后我就也把參數(shù)加上了
alter 'publicDataset:comment',METHOD =>'table_att','coprocessor'=>'hdfs://node1:8020/putJar/test-corprocessor.jar|com.train.endpointserver.SimilarityServer|1001|arg1=1,arg2=2'然后還是報(bào)這種錯(cuò)誤。
然后我就看別人增加協(xié)處理器怎么寫的
他們的用的hdfs:///,而我用的hdfs://node1:8020/。于是我就改成了hdfs:///
然后就好了,以我的理解
hdfs:/// 是說(shuō)明從這個(gè)文件系統(tǒng)找內(nèi)容,就好像file:///一樣
而
hdfs://node1:8020/ 是hdfs文件系統(tǒng)的地址。
不知道我這樣理解的對(duì)不對(duì),有大神看見(jiàn)可以幫忙指導(dǎo)下,這兩個(gè)地方有什么區(qū)別
總結(jié)
以上是生活随笔為你收集整理的给hbase增加协处理器报ERROR: org.apache.hadoop.hbase.DoNotRetryIOException:错误的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: linux/centos/集群安装ntp
- 下一篇: hbase把表删除后又新建该表提示表已存