日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Hadoop使用常见问题以及解决方法

發(fā)布時間:2024/10/12 编程问答 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Hadoop使用常见问题以及解决方法 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

1:Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out
Answer:
程序里面需要打開多個文件,進行分析,系統(tǒng)一般默認數(shù)量是1024,(用ulimit -a可以看到)對于正常使用是夠了,但是對于程序來講,就太少了。
修改辦法:
修改2個文件。
? ?? ???/etc/security/limits.conf
vi /etc/security/limits.conf
加上:
* soft nofile 102400
* hard nofile 409600

? ? $cd /etc/pam.d/
? ? $sudo vi login
? ?? ???添加? ?? ???session? ? required? ???/lib/security/pam_limits.so

針對第一個問題我糾正下答案:
這是reduce預處理階段shuffle時獲取已完成的map的輸出失敗次數(shù)超過上限造成的,上限默認為5。引起此問題的方式可能會有很多種,比如網(wǎng)絡連接不正常,連接超時,帶寬較差以及端口阻塞等。。。通常框架內(nèi)網(wǎng)絡情況較好是不會出現(xiàn)此錯誤的。

2:Too many fetch-failures
Answer:
出現(xiàn)這個問題主要是結(jié)點間的連通不夠全面。
1) 檢查 、/etc/hosts
? ?要求本機ip 對應 服務器名
? ?要求要包含所有的服務器ip + 服務器名
2) 檢查 .ssh/authorized_keys
? ?要求包含所有服務器(包括其自身)的public key

3:處理速度特別的慢 出現(xiàn)map很快 但是reduce很慢 而且反復出現(xiàn) reduce=0%?
Answer:
結(jié)合第二點,然后
修改 conf/hadoop-env.sh 中的export HADOOP_HEAPSIZE=4000?

4:能夠啟動datanode,但無法訪問,也無法結(jié)束的錯誤
在重新格式化一個新的分布式文件時,需要將你NameNode上所配置的dfs.name.dir這一namenode用來存放NameNode 持久存儲名字空間及事務日志的本地文件系統(tǒng)路徑刪除,同時將各DataNode上的dfs.data.dir的路徑 DataNode 存放塊數(shù)據(jù)的本地文件系統(tǒng)路徑的目錄也刪除。如本此配置就是在NameNode上刪除/home/hadoop/NameData,在DataNode上刪除/home/hadoop/DataNode1和/home/hadoop/DataNode2。這是因為Hadoop在格式化一個新的分布式文件系統(tǒng)時,每個存儲的名字空間都對應了建立時間的那個版本(可以查看/home/hadoop /NameData/current目錄下的VERSION文件,上面記錄了版本信息),在重新格式化新的分布式系統(tǒng)文件時,最好先刪除NameData 目錄。必須刪除各DataNode的dfs.data.dir。這樣才可以使namedode和datanode記錄的信息版本對應。
注意:刪除是個很危險的動作,不能確認的情況下不能刪除!!做好刪除的文件等通通備份!!

5:java.io.IOException: Could not obtain block: blk_194219614024901469_1100 file=/user/hive/warehouse/src_20090724_log/src_20090724_log
出現(xiàn)這種情況大多是結(jié)點斷了,沒有連接上。

6:java.lang.OutOfMemoryError: Java heap space
出現(xiàn)這種異常,明顯是jvm內(nèi)存不夠得原因,要修改所有的datanode的jvm內(nèi)存大小。
Java -Xms1024m -Xmx4096m
一般jvm的最大內(nèi)存使用應該為總內(nèi)存大小的一半,我們使用的8G內(nèi)存,所以設置為4096m,這一值可能依舊不是最優(yōu)的值。

7: Namenode in safe mode?
解決方法
bin/hadoop dfsadmin -safemode leave

8:java.net.NoRouteToHostException: No route to host
j解決方法:
sudo /etc/init.d/iptables stop

9:更改namenode后,在hive中運行select 依舊指向之前的namenode地址
這是因為:When youcreate a table, hive actually stores the location of the table (e.g.
hdfs://ip:port/user/root/...) in the SDS and DBS tables in the metastore . So when I bring up a new cluster the master has a new IP, but hive's metastore is still pointing to the locations within the old
cluster. I could modify the metastore to update with the new IP everytime I bring up a cluster. But the easier and simpler solution was to just use an elastic IP for the master
所以要將metastore中的之前出現(xiàn)的namenode地址全部更換為現(xiàn)有的namenode地址
10:Your DataNode is started and you can create directories with bin/hadoop dfs -mkdir, but you get an error message when you try to put files into the HDFS (e.g., when you run a command like bin/hadoop dfs -put).
解決方法:
Go to the HDFS info web page (open your web browser and go to http://namenode:dfs_info_port where namenode is the hostname of your NameNode and dfs_info_port is the port you chose dfs.info.port; if followed the QuickStart on your personal computer then this URL will be http://localhost:50070). Once at that page click on the number where it tells you how many DataNodes you have to look at a list of the DataNodes in your cluster.
If it says you have used 100% of your space, then you need to free up room on local disk(s) of the DataNode(s).
If you are on Windows then this number will not be accurate (there is some kind of bug either in Cygwin's df.exe or in Windows). Just free up some more space and you should be okay. On one Windows machine we tried the disk had 1GB free but Hadoop reported that it was 100% full. Then we freed up another 1GB and then it said that the disk was 99.15% full and started writing data into the HDFS again. We encountered this bug on Windows XP SP2.
11:Your DataNodes won't start, and you see something like this in logs/*datanode*:
Incompatible namespaceIDs in /tmp/hadoop-ross/dfs/data
原因:
Your Hadoop namespaceID became corrupted. Unfortunately the easiest thing to do reformat the HDFS.
解決方法:
You need to do something like this:
bin/stop-all.sh
rm -Rf /tmp/hadoop-your-username/*
bin/hadoop namenode -format
12:You can run Hadoop jobs written in Java (like the grep example), but your HadoopStreaming jobs (such as the Python example that fetches web page titles) won't work.
原因:
You might have given only a relative path to the mapper and reducer programs. The tutorial originally just specified relative paths, but absolute paths are required if you are running in a real cluster.
解決方法:
Use absolute paths like this from the tutorial:
bin/hadoop jar contrib/hadoop-0.15.2-streaming.jar /
??-mapper??$HOME/proj/hadoop/multifetch.py? ?? ?? ?/
??-reducer $HOME/proj/hadoop/reducer.py? ?? ?? ?? ?/
??-input? ?urls/*? ?? ?? ?? ?? ?? ?? ?? ?? ?? ?? ? /
??-output??titles
9:更改namenode后,在hive中運行select 依舊指向之前的namenode地址
這是因為:When youcreate a table, hive actually stores the location of the table (e.g.
hdfs://ip:port/user/root/...) in the SDS and DBS tables in the metastore . So when I bring up a new cluster the master has a new IP, but hive's metastore is still pointing to the locations within the old
cluster. I could modify the metastore to update with the new IP everytime I bring up a cluster. But the easier and simpler solution was to just use an elastic IP for the master
所以要將metastore中的之前出現(xiàn)的namenode地址全部更換為現(xiàn)有的namenode地址

13:?2009-01-08 10:02:40,709 ERROR metadata.Hive (Hive.java:getPartitions(499)) - javax.jdo.JDODataStoreException: Required table missing : ""PARTITIONS"" in Catalog "" Schema "". JPOX requires this table to perform its persistence operations. Either your MetaData is incorrect, or you need to enable "org.jpox.autoCreateTables"
原因:就是因為在 hive-default.xml 里把 org.jpox.fixedDatastore 設置成 true 了

14:09/08/31 18:25:45 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.io.IOException:Bad connect ack with firstBadLink 192.168.1.11:50010
> 09/08/31 18:25:45 INFO hdfs.DFSClient: Abandoning block blk_-8575812198227241296_1001
> 09/08/31 18:25:51 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.io.IOException:
Bad connect ack with firstBadLink 192.168.1.16:50010
> 09/08/31 18:25:51 INFO hdfs.DFSClient: Abandoning block blk_-2932256218448902464_1001
> 09/08/31 18:25:57 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.io.IOException:
Bad connect ack with firstBadLink 192.168.1.11:50010
> 09/08/31 18:25:57 INFO hdfs.DFSClient: Abandoning block blk_-1014449966480421244_1001
> 09/08/31 18:26:03 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.io.IOException:
Bad connect ack with firstBadLink 192.168.1.16:50010
> 09/08/31 18:26:03 INFO hdfs.DFSClient: Abandoning block blk_7193173823538206978_1001
> 09/08/31 18:26:09 WARN hdfs.DFSClient: DataStreamer Exception: java.io.IOException: Unable
to create new block.
>? ?? ?? ?at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.nextBlockOutputStream(DFSClient.java:2731)
>? ?? ?? ?at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.access$2000(DFSClient.java:1996)
>? ?? ?? ?at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream$DataStreamer.run(DFSClient.java:2182)
>?
> 09/08/31 18:26:09 WARN hdfs.DFSClient: Error Recovery for block blk_7193173823538206978_1001
bad datanode[2] nodes == null
> 09/08/31 18:26:09 WARN hdfs.DFSClient: Could not get block locations. Source file "/user/umer/8GB_input"
- Aborting...
> put: Bad connect ack with firstBadLink 192.168.1.16:50010


解決方法:
I have resolved the issue:
What i did:?


1) '/etc/init.d/iptables stop' -->stopped firewall
2) SELINUX=disabled in '/etc/selinux/config' file.-->disabled selinux
I worked for me after these two changes

?

?

15、把IP換成主機名,datanode 掛不上
解決方法:
把temp文件刪除,重啟hadoop集群就行了
是因為多次部署,造成temp文件與namenode不一致的原因
(注:來源于 群聊天記錄 感謝 beyi 童鞋)

?

解決jline.ConsoleReader.readLine在Windows上不生效問題方法
在CliDriver.java的main()函數(shù)中,有一條語句reader.readLine,用來讀取標準輸入,但在Windows平臺上該語句總是返回null,這個reader是一個實例jline.ConsoleReader實例,給Windows Eclipse調(diào)試帶來不便。
我們可以通過使用java.util.Scanner.Scanner來替代它,將原來的
while ((line=reader.readLine(curPrompt+"> ")) != null)
復制代碼
替換為:
Scanner sc = new Scanner(System.in);
while ((line=sc.nextLine()) != null)
復制代碼
重新編譯發(fā)布,即可正常從標準輸入讀取輸入的SQL語句了。

Windows eclispe調(diào)試hive報does not have a scheme錯誤可能原因
1、Hive配置文件中的“hive.metastore.local”配置項值為false,需要將它修改為true,因為是單機版
2、沒有設置HIVE_HOME環(huán)境變量,或設置錯誤
3、“does not have a scheme”很可能是因為找不到“hive-default.xml”。使用Eclipse調(diào)試Hive時,遇到找不到hive-default.xml的解決方法:http://bbs.hadoopor.com/thread-292-1-1.html

?

16、bin/hadoop jps后報如下異常:
Exception in thread "main" java.lang.NullPointerException
? ?? ???at sun.jvmstat.perfdata.monitor.protocol.local.LocalVmManager.activeVms(LocalVmManager.java:127)
? ?? ???at sun.jvmstat.perfdata.monitor.protocol.local.MonitoredHostProvider.activeVms(MonitoredHostProvider.java:133)
? ?? ???at sun.tools.jps.Jps.main(Jps.java:45)

原因為:
系統(tǒng)根目錄/tmp文件夾被刪除了。重新建立/tmp文件夾即可。
bin/hive
中出現(xiàn) unable to??create log directory /tmp/...也可能是這個原因

17、Problem: Storage directory not exist

2010-02-09 21:37:49,890 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: STARTUP_MSG:?
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:? ?host = yijian/192.168.0.13
STARTUP_MSG:? ?args = []
STARTUP_MSG:? ?version = 0.20.1
STARTUP_MSG:? ?build =?http://svn.apache.org/repos/asf/ ... /release-0.20.1-rc1?-r 810220; compiled by 'oom' on Tue Sep??1 20:55:56 UTC 2009
************************************************************/
2010-02-09 21:37:52,093 INFO org.apache.hadoop.ipc.metrics.RpcMetrics: Initializing RPC Metrics with hostName=NameNode, port=8888
2010-02-09 21:37:52,125 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: Namenode up at: 127.0.0.1/127.0.0.1:8888
2010-02-09 21:37:52,140 INFO org.apache.hadoop.metrics.jvm.JvmMetrics: Initializing JVM Metrics with processName=NameNode, sessionId=null
2010-02-09 21:37:52,156 INFO org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeMetrics: Initializing NameNodeMeterics using context object:org.apache.hadoop.metrics.spi.NullContext
2010-02-09 21:37:53,000 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: fsOwner=jian,None,root,Administrators,Users
2010-02-09 21:37:53,000 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: supergroup=supergroup
2010-02-09 21:37:53,000 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: isPermissionEnabled=true
2010-02-09 21:37:53,031 INFO org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMetrics: Initializing FSNamesystemMetrics using context object:org.apache.hadoop.metrics.spi.NullContext
2010-02-09 21:37:53,046 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Registered FSNamesystemStatusMBean
2010-02-09 21:37:53,203 INFO org.apache.hadoop.hdfs.server.common.Storage: Storage directoryD:/hadoop/run/dfs_name_dir?does not exist.
2010-02-09 21:37:53,203 ERROR org.apache.hadoop.hdfs.server.namenode.FSNamesystem: FSNamesystem initialization failed.
org.apache.hadoop.hdfs.server.common.InconsistentFSStateException: Directory D:/hadoop/run/dfs_name_dir is in an inconsistent state: storage directory does not exist or is not accessible.
at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:290)
at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:87)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:311)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:292)
at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:201)
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:279)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:956)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:965)
2010-02-09 21:37:53,234 INFO org.apache.hadoop.ipc.Server: Stopping server on 8888
2010-02-09 21:37:53,234 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: org.apache.hadoop.hdfs.server.common.InconsistentFSStateException: Directory D:/hadoop/run/dfs_name_dir is in an inconsistent state: storage directory does not exist or is not accessible.
at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:290)
at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:87)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:311)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:292)
at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:201)
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:279)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:956)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:965)
2010-02-09 21:37:53,250 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: SHUTDOWN_MSG:?
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at yijian/192.168.0.13
************************************************************/

solution: 是因為存儲目錄D:/hadoop/run/dfs_name_dir不存在,所以只需要手動創(chuàng)建好這個目錄即可。



18、Problem:?NameNode is not formatted

2010-02-09 21:52:49,343 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: STARTUP_MSG:?
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:? ?host = yijian/192.168.0.13
STARTUP_MSG:? ?args = []
STARTUP_MSG:? ?version = 0.20.1
STARTUP_MSG:? ?build =?http://svn.apache.org/repos/asf/ ... /release-0.20.1-rc1?-r 810220; compiled by 'oom' on Tue Sep??1 20:55:56 UTC 2009
************************************************************/
2010-02-09 21:52:49,531 INFO org.apache.hadoop.ipc.metrics.RpcMetrics: Initializing RPC Metrics with hostName=NameNode, port=8888
2010-02-09 21:52:49,531 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: Namenode up at: 127.0.0.1/127.0.0.1:8888
2010-02-09 21:52:49,546 INFO org.apache.hadoop.metrics.jvm.JvmMetrics: Initializing JVM Metrics with processName=NameNode, sessionId=null
2010-02-09 21:52:49,546 INFO org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeMetrics: Initializing NameNodeMeterics using context object:org.apache.hadoop.metrics.spi.NullContext
2010-02-09 21:52:50,250 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: fsOwner=jian,None,root,Administrators,Users
2010-02-09 21:52:50,250 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: supergroup=supergroup
2010-02-09 21:52:50,250 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: isPermissionEnabled=true
2010-02-09 21:52:50,265 INFO org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMetrics: Initializing FSNamesystemMetrics using context object:org.apache.hadoop.metrics.spi.NullContext
2010-02-09 21:52:50,265 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Registered FSNamesystemStatusMBean
2010-02-09 21:52:50,359 ERROR org.apache.hadoop.hdfs.server.namenode.FSNamesystem: FSNamesystem initialization failed.
java.io.IOException:?NameNode is not formatted.
at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:317)
at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:87)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:311)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:292)
at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:201)
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:279)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:956)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:965)
2010-02-09 21:52:50,359 INFO org.apache.hadoop.ipc.Server: Stopping server on 8888
2010-02-09 21:52:50,359 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.io.IOException: NameNode is not formatted.
at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:317)
at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:87)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:311)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:292)
at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:201)
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:279)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:956)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:965)
2010-02-09 21:52:50,359 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: SHUTDOWN_MSG:?
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at yijian/192.168.0.13
************************************************************/

solution: 是因為HDFS還沒有格式化,只需要運行hadoop namenode -format一下,然后再啟動即可

?

?

19、中文問題
? ? 從url中解析出中文,但hadoop中打印出來仍是亂碼?我們曾經(jīng)以為hadoop是不支持中文的,后來經(jīng)過查看源代碼,發(fā)現(xiàn)hadoop僅僅是不支持以gbk格式輸出中文而己。

? ? 這是TextOutputFormat.class中的代碼,hadoop默認的輸出都是繼承自FileOutputFormat來的,FileOutputFormat的兩個子類一個是基于二進制流的輸出,一個就是基于文本的輸出TextOutputFormat。

? ? public class TextOutputFormat<K, V> extends FileOutputFormat<K, V> {
??protected static class LineRecordWriter<K, V>
? ? implements RecordWriter<K, V> {
? ? private static final String utf8 = “UTF-8″;//這里被寫死成了utf-8
? ? private static final byte[] newline;
? ? static {
? ?? ?try {
? ?? ???newline = “/n”.getBytes(utf8);
? ?? ?} catch (UnsupportedEncodingException uee) {
? ?? ???throw new IllegalArgumentException(”can’t find ” + utf8 + ” encoding”);
? ?? ?}
? ? }

? ? public LineRecordWriter(DataOutputStream out, String keyValueSeparator) {
? ?? ?this.out = out;
? ?? ?try {
? ?? ???this.keyValueSeparator = keyValueSeparator.getBytes(utf8);
? ?? ?} catch (UnsupportedEncodingException uee) {
? ?? ???throw new IllegalArgumentException(”can’t find ” + utf8 + ” encoding”);
? ?? ?}
? ? }

? ? private void writeObject(Object o) throws IOException {
? ?? ?if (o instanceof Text) {
? ?? ???Text to = (Text) o;
? ?? ???out.write(to.getBytes(), 0, to.getLength());//這里也需要修改
? ?? ?} else {
? ?? ???out.write(o.toString().getBytes(utf8));
? ?? ?}
? ? }

}
? ? 可以看出hadoop默認的輸出寫死為utf-8,因此如果decode中文正確,那么將Linux客戶端的character設為utf-8是可以看到中文的。因為hadoop用utf-8的格式輸出了中文。
? ? 因為大多數(shù)數(shù)據(jù)庫是用gbk來定義字段的,如果想讓hadoop用gbk格式輸出中文以兼容數(shù)據(jù)庫怎么辦?
? ? 我們可以定義一個新的類:
? ? public class GbkOutputFormat<K, V> extends FileOutputFormat<K, V> {
??protected static class LineRecordWriter<K, V>
? ? implements RecordWriter<K, V> {
//寫成gbk即可
? ? private static final String gbk = “gbk”;
? ? private static final byte[] newline;
? ? static {
? ?? ?try {
? ?? ???newline = “/n”.getBytes(gbk);
? ?? ?} catch (UnsupportedEncodingException uee) {
? ?? ???throw new IllegalArgumentException(”can’t find ” + gbk + ” encoding”);
? ?? ?}
? ? }

? ? public LineRecordWriter(DataOutputStream out, String keyValueSeparator) {
? ?? ?this.out = out;
? ?? ?try {
? ?? ???this.keyValueSeparator = keyValueSeparator.getBytes(gbk);
? ?? ?} catch (UnsupportedEncodingException uee) {
? ?? ???throw new IllegalArgumentException(”can’t find ” + gbk + ” encoding”);
? ?? ?}
? ? }

? ? private void writeObject(Object o) throws IOException {
? ?? ?if (o instanceof Text) {
//? ?? ???Text to = (Text) o;
//? ?? ???out.write(to.getBytes(), 0, to.getLength());
//? ?? ?} else {
? ?? ???out.write(o.toString().getBytes(gbk));
? ?? ?}
? ? }

}
? ? 然后在mapreduce代碼中加入conf1.setOutputFormat(GbkOutputFormat.class)
? ? 即可以gbk格式輸出中文。

20、某次正常運行mapreduce實例時,拋出錯誤

java.io.IOException: All datanodes xxx.xxx.xxx.xxx:xxx are bad. Aborting…

at org.apache.hadoop.dfs.DFSClient$DFSOutputStream.processDatanodeError(DFSClient.java:2158)

at org.apache.hadoop.dfs.DFSClient$DFSOutputStream.access$1400(DFSClient.java:1735)

at org.apache.hadoop.dfs.DFSClient$DFSOutputStream$DataStreamer.run(DFSClient.java:1889)

java.io.IOException: Could not get block locations. Aborting…

at org.apache.hadoop.dfs.DFSClient$DFSOutputStream.processDatanodeError(DFSClient.java:2143)

at org.apache.hadoop.dfs.DFSClient$DFSOutputStream.access$1400(DFSClient.java:1735)

at org.apache.hadoop.dfs.DFSClient$DFSOutputStream$DataStreamer.run(DFSClient.java:1889)

經(jīng)查明,問題原因是linux機器打開了過多的文件導致。用命令ulimit -n可以發(fā)現(xiàn)linux默認的文件打開數(shù)目為1024,修改/ect/security/limit.conf,增加hadoop soft 65535

再重新運行程序(最好所有的datanode都修改),問題解決

21、運行一段時間后hadoop不能stop-all.sh的問題,顯示報錯

no tasktracker to stop ,no datanode to stop

問題的原因是hadoop在stop的時候依據(jù)的是datanode上的mapred和dfs進程號。而默認的進程號保存在/tmp下,linux默認會每隔一段時間(一般是一個月或者7天左右)去刪除這個目錄下的文件。因此刪掉hadoop-hadoop-jobtracker.pid和hadoop-hadoop-namenode.pid兩個文件后,namenode自然就找不到datanode上的這兩個進程了。

在配置文件中的export HADOOP_PID_DIR可以解決這個問題

22、問題:
Incompatible namespaceIDs in /usr/local/hadoop/dfs/data: namenode namespaceID = 405233244966; datanode namespaceID = 33333244
原因:
在每次執(zhí)行hadoop namenode -format時,都會為NameNode生成namespaceID,,但是在hadoop.tmp.dir目錄下的DataNode還是保留上次的namespaceID,因為namespaceID的不一致,而導致DataNode無法啟動,所以只要在每次執(zhí)行hadoop namenode -format之前,先刪除hadoop.tmp.dir目錄就可以啟動成功。請注意是刪除hadoop.tmp.dir對應的本地目錄,而不是HDFS目錄。

轉(zhuǎn)載于:https://www.cnblogs.com/ylqmf/archive/2012/11/21/2781397.html

與50位技術(shù)專家面對面20年技術(shù)見證,附贈技術(shù)全景圖

總結(jié)

以上是生活随笔為你收集整理的Hadoop使用常见问题以及解决方法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

久久久国产精品视频 | 免费观看的黄色 | 日韩一二三在线 | av成人在线看 | 欧洲成人免费 | 97在线观| 欧美日韩国产综合一区二区 | 欧美激情第一区 | 在线观看 国产 | 中文字幕第 | 色爱区综合激月婷婷 | 中文字幕一区二区三区四区在线视频 | 中文字幕在线播放第一页 | 天天草天天爽 | 国产成人精品三级 | 色偷偷人人澡久久超碰69 | 国产原创91 | 又黄又刺激视频 | 日韩视频免费播放 | 最近中文字幕mv免费高清在线 | bbbb操bbbb| 国产精品久久久久久久久久不蜜月 | 久久精品国产亚洲精品 | 一区二区三区电影在线播 | 五月婷色 | 日韩久久一区 | www免费网站在线观看 | 精品电影一区 | 中日韩欧美精彩视频 | 天天干,夜夜操 | 国产黄免费在线观看 | 国产香蕉视频在线播放 | 激情图片区 | 久久久精品一区二区三区 | 97超碰色 | 国产精品igao视频网入口 | 亚洲伊人成综合网 | 香蕉视频亚洲 | 天天搞天天 | 国产成人在线免费观看 | 亚洲激情在线播放 | 狠狠色伊人亚洲综合网站色 | 亚洲日本精品视频 | av福利资源| 亚洲一区二区三区在线看 | 97精品视频在线 | 97网在线观看 | www日日夜夜| 欧美 亚洲 另类 激情 另类 | 色婷婷a| 视频三区| 国产精品 中文字幕 亚洲 欧美 | 久爱精品在线 | 成人91在线| 中文国产在线观看 | 亚洲资源在线 | 国产成人久久久77777 | 精品亚洲二区 | 中文在线a天堂 | wwwwwww色 | 九九视频在线观看视频6 | 黄色小说视频网站 | 亚洲国产精品99久久久久久久久 | 操久 | 美女国产网站 | 337p西西人体大胆瓣开下部 | 国产成人久久精品77777综合 | 久草香蕉在线 | 99热超碰在线 | 国产精品九九久久久久久久 | 久久这里只有精品视频首页 | 亚洲第一成网站 | 视频一区视频二区在线观看 | 亚洲国产午夜视频 | 韩国av一区二区三区在线观看 | 干av在线| 久久久久国产成人免费精品免费 | 精品国产免费一区二区三区五区 | 中文字幕婷婷 | 日本视频不卡 | 最近免费中文字幕mv在线视频3 | 久久综合加勒比 | 国产午夜精品在线 | 国产在线国偷精品产拍免费yy | 91精品久久久久久粉嫩 | 国产高清在线永久 | 久久高清国产视频 | 国产a级免费 | 久久手机免费观看 | 91久久奴性调教 | 国产视频二 | 免费亚洲视频在线观看 | 97精品超碰一区二区三区 | 亚洲色视频| 91精选在线观看 | av在线之家电影网站 | 久久久久久久99精品免费观看 | 日日夜夜天天久久 | 亚洲综合成人专区片 | 婷婷在线色 | 日韩综合第一页 | 久久激情五月丁香伊人 | 欧美另类视频 | 久久久国产一区 | 人人超碰在线 | 五月婷婷一区 | 国产又粗又猛又色又黄视频 | 久久久久国产精品厨房 | 久久这里只有精品视频首页 | 麻豆久久一区二区 | 久久久在线观看 | 91成人精品一区在线播放69 | 色无五月 | 正在播放五月婷婷狠狠干 | 国产亚洲视频中文字幕视频 | av高清一区二区三区 | 麻豆视频大全 | 午夜精品久久久久久99热明星 | 在线99热 | 天天撸夜夜操 | 久久久久久久精 | 狠狠狠狠狠狠狠干 | 超碰97在线资源站 | 国产中文 | 免费在线观看视频一区 | av成人免费在线看 | 999视频精品 | 黄色国产精品 | 欧美一级视频在线观看 | 欧美日韩午夜 | 精品av网站 | 中文字幕 二区 | 久久夜色精品国产欧美一区麻豆 | 日本性动态图 | 久久久久久草 | 成人福利在线观看 | 日韩一级电影在线 | 91亚洲精品国产 | 在线国产日韩 | 天天爱天天射天天干天天 | 成人中文字幕av | 丁香花在线观看免费完整版视频 | 久久成人精品 | 999成人网 | 天天色成人| 久久久久久久久亚洲精品 | 中文字幕免费久久 | 国产精品国产三级国产aⅴ入口 | 国产中文字幕免费 | 国产黄色片免费 | 天天干一干 | 亚洲欧美偷拍另类 | 久久久久久久久久久免费av | 自拍超碰在线 | 色婷婷国产精品一区在线观看 | 日韩在线观看视频一区二区三区 | 三上悠亚在线免费 | 韩国在线一区 | 成人av中文字幕在线观看 | 一区二区三高清 | 免费进去里的视频 | 国产亚洲精品免费 | 亚洲日本成人网 | 揉bbb玩bbb少妇bbb | 久久精品三级 | 天堂av在线免费 | 日本久久精品 | 亚洲黄色一级大片 | av免费电影在线观看 | 美女网站在线看 | av日韩不卡 | 日韩欧美成 | 久久的色| 九草视频在线观看 | 国产精品综合av一区二区国产馆 | 国产区久久| 成人中文字幕+乱码+中文字幕 | 日韩在线视频网站 | 免费在线色电影 | 久久不射网站 | 色香蕉视频| 香蕉视频色 | av在线观 | 中文字幕亚洲综合久久五月天色无吗'' | 在线观看国产日韩欧美 | 伊人伊成久久人综合网站 | 久久久久北条麻妃免费看 | 欧美孕妇与黑人孕交 | 欧美日韩精品在线观看 | 久草视频首页 | 国产成人在线综合 | 婷婷中文字幕综合 | 色妞色视频一区二区三区四区 | 麻豆国产在线播放 | 国产黄色片久久 | 亚洲国产小视频在线观看 | 激情网在线视频 | 国产一级大片免费看 | 久久成年人网站 | 免费观看一区二区三区视频 | 日本不卡一区二区三区在线观看 | 97看片吧| 美女搞黄国产视频网站 | 天天射天天干天天操 | 久久人人爽人人爽人人片 | 99精品视频在线观看播放 | 欧美日韩伦理在线 | 中文字幕亚洲精品在线观看 | 亚洲 av网站 | 97视频在线观看网址 | 亚洲精品在线视频观看 | 日韩av一区二区三区 | www免费看 | 中文字幕xxxx | 国产视频精品久久 | 欧美亚洲久久 | 日韩天堂在线观看 | 波多野结衣在线视频免费观看 | 婷婷播播网 | 亚洲精品视频第一页 | 国产成人精品国内自产拍免费看 | 亚洲精品2区 | 国产精品高潮呻吟久久av无 | 国产一级在线 | 91麻豆国产| 亚洲欧洲精品一区 | 黄色一级大片在线免费看产 | 探花视频在线观看免费版 | 天天天天天操 | 国产精品久久久久久69 | 在线亚洲激情 | 欧美精品免费一区二区 | 亚洲精品系列 | 国产第一页在线播放 | 久久久久久中文字幕 | 国产精品久久久久久久午夜片 | 九九热免费精品视频 | 黄www在线观看 | 日韩在线播放欧美字幕 | 五月婷影院 | 国产手机在线视频 | 国产成人a亚洲精品v | 色婷婷成人 | www.com久久 | 亚洲最新av | 一区二区三区久久精品 | 国产视频在线观看免费 | 国内精品视频在线播放 | 乱子伦av | 国产精品久久久久久一区二区三区 | 日本成人a| 狠狠色丁香久久婷婷综合_中 | 五月天婷亚洲天综合网精品偷 | 色婷婷午夜 | 粉嫩av一区二区三区四区在线观看 | 一级成人在线 | 久久国产精品99久久久久久进口 | 9999精品免费视频 | 午夜精品中文字幕 | 欧美在线1区 | 国产精品99久久久久久久久久久久 | 亚洲国产精品久久 | 免费a网 | 久久五月婷婷丁香社区 | 99久久日韩精品免费热麻豆美女 | 激情在线五月天 | 欧美怡红院视频 | 国产99免费| 91在线观看黄 | 欧美一区免费在线观看 | 午夜婷婷在线观看 | 午夜精品久久久久久久99热影院 | 黄色毛片视频 | 日韩av成人在线 | 亚洲 综合 专区 | 国产美女网 | 国产a级精品 | 成人a视频 | 欧美色久 | 国产亚洲久一区二区 | 人人干天天射 | av在线电影网站 | 亚洲精品国 | 日韩a在线观看 | av一区二区在线观看中文字幕 | 麻豆精品视频 | 久草在线最新视频 | 欧美精品在线观看免费 | 久久99久久99精品免观看软件 | 国产香蕉久久精品综合网 | 视频一区视频二区在线观看 | 9在线观看免费 | 96av视频 | 亚洲一区二区精品3399 | 九九热精品视频在线播放 | 亚洲日本精品视频 | 麻豆久久久 | 精品国产乱码久久久久 | 久久99久久99精品免视看婷婷 | 国产91免费观看 | 日韩在线免费 | 97免费| 欧美一级片在线 | 久久久久夜色 | 中文字幕免费高清av | 天天插伊人 | 欧美一区二区免费在线观看 | 国产精品欧美在线 | 亚州精品一二三区 | 黄污污网站 | 国产精品第 | 久久精品小视频 | 国产视频一区二区在线观看 | 国产在线va | 狠狠色狠狠色综合日日92 | 国产中文视 | 亚洲免费视频观看 | 久久久精华网 | 国产亚洲精品bv在线观看 | 在线播放 日韩专区 | 超碰公开在线观看 | 麻豆观看| 91精品国自产在线偷拍蜜桃 | 一区二区精品视频 | 少妇做爰k8经典 | 69国产盗摄一区二区三区五区 | 欧美一级免费黄色片 | 亚洲经典中文字幕 | 亚洲精品视频在 | 久久人人爽人人爽人人片 | 香蕉影视在线观看 | 国产精品美女免费看 | 91香蕉视频污在线 | 高清不卡一区二区三区 | 国产一级大片在线观看 | 国产黄色一级片 | 欧美日韩精品在线播放 | 99精品国产免费久久久久久下载 | 最新日韩在线 | 欧美视频日韩视频 | www.午夜| 国产精品三级视频 | 色婷婷色| 亚洲三级影院 | www.激情五月.com | 久久不见久久见免费影院 | 久久亚洲人 | 免费在线观看毛片网站 | 久久激情五月婷婷 | 久久情网| 在线成人一区二区 | 欧美最猛性xxxxx亚洲精品 | 久久乐九色婷婷综合色狠狠182 | 精品在线亚洲视频 | 亚州精品一二三区 | 天天色棕合合合合合合 | 午夜影院先 | 少妇精品久久久一区二区免费 | 国产美女永久免费 | 久久艹影院 | av资源免费在线观看 | 欧美一二区视频 | 一级免费片 | 免费观看黄色av | 欧美另类老妇 | 看片的网址 | 日韩综合第一页 | 一区二区激情视频 | 99热九九这里只有精品10 | 天天操夜夜做 | 欧美视频在线二区 | 一区二区三区播放 | 久久99精品一区二区三区三区 | 久草在线视频中文 | 中文字幕免 | 精品一区精品二区 | 久久久久久网站 | 97超碰香蕉 | 欧美另类sm图片 | 操操操com | 99久久er热在这里只有精品15 | 一区久久久| 亚洲激情影院 | 精品福利视频在线观看 | 奇米网777 | 国产又黄又硬又爽 | 日韩免费视频 | 五月天婷婷免费视频 | 国产精品一区二区在线免费观看 | 999精品| 久久精品国产亚洲精品 | 亚洲精品视频在线播放 | 在线观看麻豆av | 最近免费中文字幕大全高清10 | 天天操天天拍 | 在线v片免费观看视频 | 91精品国产一区二区在线观看 | 久二影院| 国产69精品久久99的直播节目 | 国产一级黄色免费看 | 国产高清视频色在线www | ww视频在线观看 | av看片网址 | 三级黄色片子 | 九七在线视频 | 夜夜夜夜猛噜噜噜噜噜初音未来 | 欧美精品在线观看免费 | 国产在线a视频 | 91av在线电影 | 久久久久久在线观看 | 亚洲国产精品一区二区久久,亚洲午夜 | 国产1区在线观看 | 欧美日韩国产精品一区二区 | 欧美精品免费一区二区 | 在线视频日韩一区 | 国产一区二区精品 | 男女拍拍免费视频 | 日本久久电影网 | 欧美电影在线观看 | 欧美日韩激情网 | 日韩理论影院 | 91精品国产一区二区三区 | 欧美精品中文 | 国产一区二区在线观看视频 | 看国产黄色片 | 亚洲日韩欧美视频 | 久久成人免费电影 | 在线看一区 | 国产美女精品视频免费观看 | 五月天久久综合 | 韩日在线一区 | 四虎国产永久在线精品 | 日韩二区三区 | 黄色www在线观看 | 特级西西444www大精品视频免费看 | 性色av香蕉一区二区 | 米奇四色影视 | 伊人色**天天综合婷婷 | 超碰免费在线公开 | 日韩二区三区在线 | 人人爽人人爽 | 日韩在线电影 | avsex| 精品国产成人av在线免 | 亚洲免费精品视频 | 国产区在线 | 国内外成人免费在线视频 | 一区二区三区四区久久 | 午夜视频久久久 | 一区国产精品 | 狠狠色丁香婷婷综合视频 | av成人动漫 | 国产精品a成v人在线播放 | 国产一级大片在线观看 | 国产一级做a爱片久久毛片a | 91精品国产自产91精品 | 久精品在线 | 玖玖色在线观看 | 黄网站色成年免费观看 | 狠狠狠狠狠狠狠狠 | 91在线国内视频 | 成人国产一区二区 | 91精品国产一区二区三区 | 最新婷婷色 | 国内精品久久久久国产 | 亚洲欧美少妇 | 涩涩色亚洲一区 | 狠狠干网站 | 在线观看视频黄 | 日韩色在线 | 99热国产在线中文 | 91精品国产福利在线观看 | 五月婷婷激情六月 | 日日噜噜噜噜夜夜爽亚洲精品 | 国产中文在线字幕 | 2019av在线视频 | 免费黄a大片 | 精品国产一二三四区 | 麻豆视频在线免费看 | 狠狠干网址 | 日韩精品中文字幕在线观看 | 久久亚洲综合国产精品99麻豆的功能介绍 | 久久毛片视频 | 日韩婷婷 | 日韩网| 麻豆国产精品视频 | 国产一级做a | 亚洲影院国产 | 免费看色的网站 | 欧美日韩xx | 黄色一级动作片 | 成人久久久久久久久 | 久久久久久激情 | 天天色天天艹 | 最新av免费在线 | 中文字幕丝袜美腿 | 中文在线a在线 | 草草草影院 | 色婷婷亚洲精品 | 麻豆视频在线看 | 91手机视频 | 免费观看黄色12片一级视频 | 成人sm另类专区 | 色综合久久久久综合体 | 国产精品久久久久四虎 | 蜜桃视频色| 在线黄色免费 | 久久影院亚洲 | 欧美日韩一区二区久久 | 色资源在线观看 | 亚洲综合丁香 | 探花视频免费在线观看 | 免费高清无人区完整版 | 中文字幕在线观看免费高清完整版 | 婷婷久月 | 国产精品免费视频网站 | 2019中文最近的2019中文在线 | av大全在线播放 | 久草在线免费看视频 | 免费色av | 欧美一级高清片 | 中文字幕在线视频精品 | 日本黄色免费电影网站 | 不卡视频国产 | 久久综合精品国产一区二区三区 | 激情丁香婷婷 | 久久免费久久 | 日韩精品免费一区 | 天天射天天操天天 | 久久视频精品在线观看 | 不卡视频一区二区三区 | 亚洲在线免费视频 | 人人插人人费 | 国产99久久久国产精品免费看 | 日韩欧美视频在线观看免费 | 国产美女黄网站免费 | 香蕉色综合 | 欧美一级电影在线观看 | 国产中文字幕在线免费观看 | 日韩电影中文,亚洲精品乱码 | 国产一级免费观看 | 国产精品久久久久毛片大屁完整版 | 日日躁你夜夜躁你av蜜 | 国产综合婷婷 | 91麻豆精品一区二区三区 | 亚洲国产片色 | 麻豆国产网站入口 | 日日干综合 | 久久黄色免费观看 | 欧美坐爱视频 | 国产精品久久久久久电影 | 99久久久久久久久久 | 国产日产亚洲精华av | 国产精品一区二区免费在线观看 | 日韩av一区二区三区四区 | www.五月天 | 婷婷激情影院 | 国产视频丨精品|在线观看 国产精品久久久久久久久久久久午夜 | 天天舔天天射天天操 | 亚洲va在线va天堂va偷拍 | 亚洲美女免费视频 | 99热这里只有精品国产首页 | 日韩三区在线观看 | 国产手机视频在线播放 | 久久久久麻豆 | 97在线观看免费观看高清 | 日韩羞羞| 日韩小视频网站 | 国色综合 | 在线观看aa | 国产录像在线观看 | 亚洲欧美婷婷六月色综合 | av在线播放不卡 | 特级a毛片| 97超碰人人模人人人爽人人爱 | 亚洲一一在线 | 国产精品爽爽爽 | 狠狠操狠狠干天天操 | 美女国产免费 | 欧美一级特黄aaaaaa大片在线观看 | 操操操操网 | 91精品伦理 | 国产黄色网 | 黄色软件在线观看 | 成年人免费电影 | 91精品久久久久久 | 日韩成年视频 | 亚洲国产中文字幕在线观看 | 精品亚洲成a人在线观看 | 九九日九九操 | 色播六月天 | 日韩二区在线 | 91一区二区在线 | 午夜丁香视频在线观看 | 啪啪肉肉污av国网站 | 国产精品日韩在线 | 成人av.com | 91亚洲国产成人 | 成人在线免费小视频 | 成人在线视频免费观看 | 国产精品久久久久国产精品日日 | 999男人的天堂 | 婷婷久操 | 天堂网中文在线 | 精品 一区 在线 | 日韩精品高清视频 | 国产精品亚洲片夜色在线 | 99视频在线免费观看 | 久久视讯 | 欧美午夜精品久久久久 | 81精品国产乱码久久久久久 | 久久免费激情视频 | www.操.com| 久草在线资源免费 | 亚洲成人免费在线 | 国产一区二区在线免费观看 | 午夜精品久久久久久中宇69 | 亚洲成人av在线播放 | 欧美精品久久久久久久久久白贞 | www在线免费观看 | 高清av免费看 | 亚洲涩涩一区 | 亚洲午夜久久久久 | 日日夜操 | 日韩中文字幕在线 | 在线观看 国产 | 在线免费中文字幕 | 激情文学综合丁香 | 视频在线亚洲 | www.天天射| 婷婷视频在线播放 | 99成人免费视频 | 天天干天天做 | 黄色网址国产 | 久久久久久久综合色一本 | 久久久三级视频 | 久久免费精彩视频 | 久久99精品国产麻豆婷婷 | 天天拍夜夜拍 | 国产精品99久久久 | 伊人丁香 | 亚洲五月婷 | 欧美日韩免费观看一区二区三区 | 黄a网站 | 91亚瑟视频| 97视频在线播放 | 手机在线永久免费观看av片 | 国产精品私人影院 | 午夜18视频在线观看 | 国产精品麻豆99久久久久久 | 在线三级播放 | 日本少妇高清做爰视频 | 久草免费在线视频观看 | 国产99re| 51久久成人国产精品麻豆 | 米奇四色影视 | 久久综合久久综合这里只有精品 | 国产一级二级在线播放 | 在线播放国产精品 | 欧美大片大全 | 国产精品毛片网 | 天堂av高清| 国产成人精品一区二区三区免费 | 插综合网 | 国产成人黄色片 | 国产亚洲精品久久久久久 | 五月婷激情 | 中文字幕在线观看视频一区 | 在线免费三级 | 欧美在线资源 | 中文av在线播放 | 91香蕉视频黄 | 91一区二区三区在线观看 | 国产精品久久久久久吹潮天美传媒 | 婷婷伊人五月天 | 国产精品影音先锋 | 99久久这里有精品 | 蜜臀av在线一区二区三区 | 久草视频视频在线播放 | 国产精品亚洲综合久久 | 91传媒视频在线观看 | 一区二区三区视频网站 | 国产69精品久久久久9999apgf | 精品久久久久久亚洲 | 久久国产精品免费视频 | 999久久精品 | 国产精品视频免费在线观看 | 91av福利视频 | 国产精品成人免费精品自在线观看 | 黄网av在线 | 国产精品系列在线观看 | 国产精品丝袜在线 | 天天操网址 | 国产丝袜网站 | 国产一区免费 | 五月激情亚洲 | 日韩精品专区在线影院重磅 | 最新av在线免费观看 | 国产性xxxx| 黄色一级在线观看 | 韩日精品中文字幕 | 日韩av免费在线看 | 永久免费观看视频 | 亚洲三级av | 99久久精品免费看 | 国产精品永久免费观看 | 91人人人 | 福利网在线 | 亚洲 欧洲 国产 精品 | 亚洲综合在线发布 | 97超碰人人模人人人爽人人爱 | 中文字幕日本在线观看 | 久久国产精品精品国产色婷婷 | 中文字幕2021 | 最新午夜 | 日本一区二区三区视频在线播放 | 在线成人小视频 | 欧美日韩免费观看一区=区三区 | 在线观看日韩视频 | 中文字幕在线观看免费高清完整版 | 国产精品久久久久久久久久久久冷 | 国产97免费| 日韩精品免费一区二区在线观看 | 欧美日韩精品二区第二页 | www.av在线播放 | 亚洲欧美综合精品久久成人 | 久久精品在线 | 色综合久久中文字幕综合网 | 亚洲精品乱码久久久久久久久久 | 亚洲精品乱码久久久久久蜜桃动漫 | 日韩欧美在线免费 | 亚洲精品99久久久久久 | 国产一区二区不卡视频 | 久色 网| 福利一区视频 | 91精品一区在线观看 | 久久无码av一区二区三区电影网 | 99在线视频播放 | 欧美性色xo影院 | 久久精品人人做人人综合老师 | www.99在线观看 | 成人国产精品久久久春色 | 日韩视频一区二区三区在线播放免费观看 | 国产a级精品 | 日日草天天草 | 久久成人精品电影 | 色国产精品 | 精品资源在线 | av网址aaa| 久久人人干 | 激情久久一区二区三区 | 欧美黑吊大战白妞欧美 | 日韩中文字幕a | www欧美日韩 | 日本xxxx裸体xxxx17 | 亚洲精品在线观看不卡 | 中文字幕人成一区 | 最近最新mv字幕免费观看 | 成人性生爱a∨ | 免费黄色在线网站 | 久久99久久精品国产 | 91麻豆精品国产91久久久无需广告 | 中文字幕中文字幕在线中文字幕三区 | 国产精品美女久久久免费 | 91av免费观看 | 精品国产乱码久久久久久1区2匹 | 中文字幕资源网在线观看 | 亚洲春色成人 | 日韩欧美视频免费在线观看 | 日韩精品一区二区在线视频 | 日韩在线二区 | 欧美性超爽 | 国产精久久 | 国产一级特黄电影 | 中文字幕中文字幕在线中文字幕三区 | 国产一级淫片免费看 | 久色免费视频 | 在线观看日韩精品视频 | 91精品国自产拍天天拍 | 亚洲精品999 | 亚洲成人精品av | 天天久久综合 | 麻豆精品传媒视频 | 精品一区精品二区 | 亚洲精品高清视频 | 99久久夜色精品国产亚洲 | 久草免费电影 | 99视频这里有精品 | 欧美日本日韩aⅴ在线视频 插插插色综合 | 一区二区久久 | 色综合久久久久综合体桃花网 | 久久免费视频8 | 午夜久久久久久久久久久 | 手机成人免费视频 | 久久久久亚洲国产 | 欧美精品久久人人躁人人爽 | www.看片网站 | 色狠狠狠 | 亚洲欧美国产精品久久久久 | 成人教育av| 美女视频黄是免费的 | 日韩视频一二三区 | 97超碰在线久草超碰在线观看 | 亚洲欧洲国产日韩精品 | 综合天堂av久久久久久久 | 波多野结衣一区二区三区中文字幕 | 婷婷色资源 | 精品亚洲一区二区三区 | 亚洲一区网站 | 一区二区三区四区五区六区 | 蜜臀av一区| 久久久综合香蕉尹人综合网 | 手机在线看a | 国产美女久久 | 中文字幕在线观看一区 | 黄色一级大片在线观看 | 精品欧美一区二区三区久久久 | 91高清视频免费 | 久久久久免费观看 | 日本黄色大片免费 | 国产91精品一区二区绿帽 | 一区二区三区电影在线播 | 亚州视频在线 | 丁香视频全集免费观看 | 久草com| 99视频久| 九九精品视频在线看 | 日本久久免费电影 | 天天插视频 | 国产精品久久精品国产 | 亚洲精品国偷自产在线91正片 | 九九热视频在线播放 | 在线久久 | 国产精品6| 国内成人av | 久久久久久高潮国产精品视 | 激情五月伊人 | 91麻豆精品国产自产 | 午夜国产影院 | 天天夜夜操| 91精品国产成人 | 免费91麻豆精品国产自产在线观看 | 国产精品18久久久久久不卡孕妇 | 最新日韩视频在线观看 | 怡红院av久久久久久久 | 亚洲午夜电影网 | 久久伊人热| 国产男男gay做爰 | 欧美巨乳网 | 亚洲免费资源 | 精品视频一区在线 | 欧美va天堂va视频va在线 | 国产亚洲情侣一区二区无 | 日本中文字幕在线看 | 亚洲乱码久久 | 国产精品成人自产拍在线观看 | 中文字幕有码在线观看 | 精品久久久免费视频 | 欧美日韩在线免费观看视频 | 午夜视频在线观看一区二区三区 | 奇米网在线观看 | 日韩欧美高清在线 | 国产又粗又猛又黄视频 | 国产人成一区二区三区影院 | 国产中文字幕大全 | 欧美二区三区91 | 久久伊人精品天天 | 国产爽妇网 | 久久综合九色99 | 天天干天天操天天 | 中文字幕a∨在线乱码免费看 | 日韩一级精品 | 国产视频1| 久久99婷婷 | 13日本xxxxxⅹxxx20 | 在线观看日韩av | 免费黄av | av在线一二三区 | 国产在线不卡一区 | 国产精品乱码高清在线看 | 国产亚洲精品久久久久秋 | 99精品一区二区三区 | 亚洲激情在线观看 | 97视频总站| 九九免费精品视频在线观看 | 在线视频99 | 日韩欧美高清一区二区三区 | 国产精品99久久久久久有的能看 | 韩国一区视频 | 婷婷丁香花五月天 | 欧美日韩国产在线一区 | 亚洲欧洲久久久 | 日韩在线观看小视频 | 国产精品久久久久久五月尺 | 成人在线小视频 | 日韩电影一区二区在线 | 国产在线国产 | 成人一级片免费看 | 高潮毛片无遮挡高清免费 | 欧美精品视 | www.综合网.com| 97在线视频免费观看 | 91精品少妇偷拍99 | 亚洲精品国 | 天天操天天舔天天爽 | 婷五月天激情 | 国产精品一区二区久久国产 | 狠狠激情中文字幕 | 欧美久久久影院 | 91自拍视频在线观看 | 成人在线观看你懂的 | 97超碰影视 | 在线播放国产一区二区三区 | 五月婷婷综| 又爽又黄在线观看 | 午夜精品一区二区三区在线播放 | 亚洲另类视频 | 丁香视频全集免费观看 | 欧美激情视频在线观看免费 | 亚洲区另类春色综合小说 | 日韩三级在线 | 91热视频在线观看 | 6080yy午夜一二三区久久 | 免费在线观看成年人视频 | 国产小视频免费在线网址 | 中文字幕视频免费观看 | 麻豆视频国产 | 毛片网站在线观看 | 人人澡人 | 精品视频久久久久久 | 国产美女网| 在线一区av | 国产免费叼嘿网站免费 | 97视频在线 | 天堂v中文 | 摸bbb搡bbb搡bbbb | 国产精品ssss在线亚洲 | 81国产精品久久久久久久久久 | 一色屋精品视频在线观看 | 中文在线资源 | www色com| 国产日韩欧美精品在线观看 | 欧美一区二区三区在线观看 | 最近最新最好看中文视频 | 狠日日| 午夜电影av | 国产99久久久精品视频 | 国产精品久久久久久久久久白浆 | 国产免费大片 | 日本护士撒尿xxxx18 | a视频在线| 天天做天天爱天天爽综合网 | 亚洲视频网站在线观看 | 欧美成人久久 | 亚洲久在线 | 久久综合欧美 | 96精品高清视频在线观看软件特色 | 免费精品人在线二线三线 | 国产专区第一页 | 97色婷婷成人综合在线观看 | av中文字幕亚洲 | 色5月婷婷| 亚洲午夜在线视频 | 黄色av成人在线 | 亚洲综合在线视频 | av观看在线观看 | 国产精品电影一区 | 99热这里只有精品免费 | 视频成人永久免费视频 | 亚洲人成网站精品片在线观看 | 国产精品久久久久久久久久久久久 | 在线观看精品一区 | 久久久免费 | 亚洲精品美女久久17c | 亚洲精品欧洲精品 | 免费视频你懂得 | 在线免费观看视频一区 | 精品国产免费人成在线观看 | 久久久久久久久久久久av | 成人久久免费视频 | 色婷婷亚洲婷婷 | 国产国产人免费人成免费视频 | 久久九九影院 | 2024国产精品视频 | 国产精品无av码在线观看 | 婷婷夜夜 | 欧美另类巨大 | 亚洲精品国产精品国自产 | 免费三级大片 | 亚洲成a人片77777kkkk1在线观看 | a级国产乱理论片在线观看 伊人宗合网 | 人人澡人人爽欧一区 | 国产一级二级三级在线观看 | 91chinese在线 | 99久久99久久免费精品蜜臀 | 西西大胆啪啪 | 综合色综合 | 日韩精品三区四区 |