日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

hadoop集群平台的搭建

發布時間:2023/12/14 编程问答 39 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hadoop集群平台的搭建 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

環境配置:
master:192.168.1.20
slave1:192.168.1.21
slave2:192.168.1.22

準備工作:

#yum安裝需要的服務,關閉防火墻和selinux, yum -y install wget vim gcc net-tools curl lrzsz rsync yum updatesystemctl status firewalld systemctl stop firewalld systemctl disable firewalld vim /etc/selinux/config ##修改為disabledvim /etc/security/limits.conf #可以打開的文件數量,追加到尾部 * soft nofile 65536 # open files (-n) * hard nofile 65536 * soft nproc 65565 * hard nproc 65565 # max user processes (-u)

更改hostname:

vim /etc/hostname #分別在master和兩個slave中刪除原來的本機hostname,添加 master/slave1/slave2

更改hosts:

vim /etc/hosts #在三個主機中同樣追加: 192.168.1.20 master 192.168.1.21 slave1 192.168.1.22 slave2

安裝jdk:

tar -xzvf /usr/local/src/jdk-16_linux-x64_bin.tar.gz -C /usr/local/ vim /etc/profile ##追加 export JAVA_HOME=/usr/local/jdk-16 export PATH=$PATH:$JAVA_HOME/bin export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export JRE_HOME=$JAVA_HOME/jre ##刷新 source /etc/profile ##驗證 java -version

新增hadoop用戶:

#三個機器都要新增 useradd hadoop #密碼為123456 passwd hadoop

配置ssh無密碼驗證登錄【每個節點都需要操作】

切換到hadoop用戶:

[root@localhost ~]# su - hadoop [hadoop@localhost ~]$

節點生成密鑰對:

ssh-keygen -t rsa -P ''或者直接 ssh-keygen #一直確認就可以 #查看hadoop目錄下是否生成無密碼密鑰對 [hadoop@localhost .ssh]$ cd /home/hadoop/.ssh [hadoop@localhost .ssh]$ ls id_rsa id_rsa.pub #將id_rsa.pub追加到授權key文件中 [hadoop@localhost .ssh]$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys [hadoop@localhost .ssh]$ ls -a . .. authorized_keys id_rsa id_rsa.pub `給authorized_keys修改權限` [hadoop@master .ssh]$ chmod 600 ~/.ssh/authorized_keys [hadoop@master .ssh]$ ll 總用量 16 -rw------- 1 hadoop hadoop 410 3月 25 20:43 authorized_keys -rw------- 1 hadoop hadoop 1679 3月 25 20:34 id_rsa -rw-r--r-- 1 hadoop hadoop 410 3月 25 20:34 id_rsa.pub -rw-r--r-- 1 hadoop hadoop 171 3月 25 20:50 known_hosts

配置ssh服務:

`root用戶登錄` [root@localhost ~]# vim /etc/ssh/sshd_config #找到#PubkeyAuthentication yes 將#號去掉 PubkeyAuthentication yes

重啟ssh服務:

systemctl restart sshd

驗證ssh登錄本機:

`切換到hadoop用戶` su - hadoop [hadoop@master ~]$ ssh localhost #首次登錄主機時提示系統無法確認host主機的真實性,只知道它的公鑰指紋,詢問用戶是否需要繼續連接,此時輸入yes即可。下次登錄直接登錄,不需要輸入任何的確認和密碼,就表示配置ssh無密碼登錄成功

交換ssh密鑰

在master和slave1,slave2 之間交換密鑰,實現master和slave的ssh無密碼登錄
將master節點的公鑰id_rsa.pub復制到每個slave節點:【在hadoop用戶下操作 】

[hadoop@master ~]$ scp ~/.ssh/id_rsa.pub hadoop@slave1:~/ The authenticity of host 'slave1 (192.168.1.21)' can't be established. ECDSA key fingerprint is SHA256:jxYxSoANdkaRE8gUXyYb0qmCBDBjg8lBsfbeXl+aM4E. ECDSA key fingerprint is MD5:25:15:dd:51:12:ee:b5:6e:fd:08:81:b2:78:84:26:3c. Are you sure you want to continue connecting (yes/no)? yes Warning: Permanently added 'slave1,192.168.1.21' (ECDSA) to the list of known hosts. hadoop@slave1's password: Permission denied, please try again. hadoop@slave1's password: id_rsa.pub 100% 410 756.8KB/s 00:00 #同樣給slave2操作 scp ~/.ssh/id_rsa.pub hadoop@slave2:~/

在每個slave節點上把master節點復制的公鑰復制到authorized_keys文件中:
在slave1,slave2節點上登錄hadoop用戶操作:

[hadoop@localhost ~]$ cat ~/id_rsa.pub >> ~/.ssh/authorized_keys `注意路徑是不同的`

每個slave節點刪除master的公鑰文件id_rsa.pub:

rm -rf ~/id_rsa.pub

將slave節點的公鑰文件保存到master:【每個slave都要操作一次】

#將slave節點的公鑰復制到master下: [hadoop@localhost .ssh]$ scp ~/.ssh/id_rsa.pub hadoop@master:~/ The authenticity of host 'master (192.168.1.20)' can't be established. ECDSA key fingerprint is SHA256:AlbOTMHeCJIgoXJOW7d9N9pSMRUs11+z++45WorTBKA. ECDSA key fingerprint is MD5:14:20:a8:b5:b0:b7:54:f7:5e:07:b2:0b:31:ee:6a:fc. Are you sure you want to continue connecting (yes/no)? yes Warning: Permanently added 'master,192.168.1.20' (ECDSA) to the list of known hosts. hadoop@master's password: id_rsa.pub 100% 410 24.9KB/s 00:00 #在master節點將復制過來的slave公鑰復制到authorized_keys 文件中 [hadoop@master ~]$ cat ~/id_rsa.pub >> ~/.ssh/authorized_keys #刪除slave節點的公鑰文件 [hadoop@master ~]$ rm -rf ~/id_rsa.pub

驗證:

查看master的authorized_keys 文件中有master,slave1,slave2共3個公鑰,slave1和slave2中有本身的公鑰和master的公鑰共2個。`在master上分別登錄兩個slave:` [hadoop@master .ssh]$ ssh hadoop@slave1 Last failed login: Thu Mar 25 22:18:20 CST 2021 from master on ssh:notty There was 1 failed login attempt since the last successful login. Last login: Thu Mar 25 22:10:12 2021 from localhost [hadoop@localhost ~]$ exit 登出 Connection to slave1 closed. [hadoop@master .ssh]$ ssh hadoop@slave2 Last login: Thu Mar 25 22:11:52 2021 from localhost [hadoop@localhost ~]$ exit 登出 `在slave上登錄mater:` [hadoop@localhost .ssh]$ ssh hadoop@master Last failed login: Thu Mar 25 22:42:12 CST 2021 from slave1 on ssh:notty There was 1 failed login attempt since the last successful login. Last login: Thu Mar 25 20:57:34 2021 from localhost [hadoop@master ~]$ exit 登出

master節點安裝hadoop

下載,解壓縮,移動到/usr/local/下:

wget https://mirrors.bfsu.edu.cn/apache/hadoop/common/hadoop-3.2.2/hadoop-3.2.2.tar.gz tar -zxvf /usr/local/src/hadoop-3.2.2.tar.gz -C /usr/local/ mv /usr/local/hadoop-3.2.2 /usr/local/hadoop

配置hadoop環境變量:

vim /etc/profile #追加 #hadoop export HADOOP_HOME=/usr/local/hadoop export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH #刷新 source /etc/profile #檢查 [root@master hadoop]# /usr/local/hadoop/bin/hdaoop version Hadoop 3.2.2 Source code repository Unknown -r 7a3bc90b05f257c8ace2f76d74264906f0f7a932 Compiled by hexiaoqiao on 2021-01-03T09:26Z Compiled with protoc 2.5.0 From source with checksum 5a8f564f46624254b27f6a33126ff4 This command was run using /usr/local/hadoop/share/hadoop/common/hadoop-common-3.2.2.jar

修改hadoop-env.sh配置文件:

cd /usr/local/hadoop/etc/hadoop/ vim hadoop-env.sh #追加 export JAVA_HOME=/usr/local/jdk-16

配置參數:

配置hdfs-site.xml配置文件:

#在<configuration> </configuration>中間添加<property><name>dfs.namenode.http-address</name><value>master:50070</value></property><property><name>dfs.namenode.name.dir</name><value>file:/usr/local/hadoop/dfs/name</value><description>hdfs的namenode在本地文件系統中的位置</description></property><property><name>dfs.namenode.data.dir</name><value>file:/usr/local/hadoop/dfs/data</value><description>hdfs的datanode在本地文件系統中的位置</description></property><property><name>dfs.replication</name><value>3</value><description>冗余副本數為3</description></property><property><name>dfs.namenode.secondary.http-address</name><value>192.168.1.20:50090</value><description>定義hdfs對應的http服務器的地址和端口</description></property><property><name>dfs.webhdfs.enabled</name><value>ture</value><description>是否通過http協議讀取hdfs的文件。如果是則集群的安全性較差</descrip tion></property>

配置core-site.xml配置文件:

#在<configuration> </configuration>中間添加<property><name>fs.defaultFS</name><value>hdfs://192.168.1.20:9000</value><description>文件系統主機和端口</description></property><property><name>io.file.buffer.size</name><value>131072</value><description>流文件的緩存區大小為128M</description></property><property><name>hadoop.tmp.dir</name><value>file:/usr/local/hadoop/tmp</value><description>臨時文件夾(此項若是沒配置,則系統默認的臨時文件夾為/tmp/hadoop-hadoop.此目錄在linux系統重新啟動時會被刪除,必須重新執行hadoop系統格式化命令,否則hadoop運行會出錯)</description></property><!-- 當前用戶全設置成root --><property><name>hadoop.http.staticuser.user</name><value>root</value></property><!-- 不開啟權限檢查 --><property><name>dfs.permissions.enabled</name><value>false</value></property>

配置mapred-site.xml:

<configuration><property><name>mapreduce.framework.name</name><value>yarn</value><description>默認local模式,classic,yarn。使用yarn是使用yarn集群來實現資源的分配</description></property><property><name>mapreduce.jobhistory.address</name><value>master:10020</value><description>定義作業歷史服務器的地址和端口,通過作業歷史服務來查看已經運行完成的mapreduce任務</description></property><property><name>mapreduce.jobhistory.webapp.address</name><value>master:19888</value><description>定義歷史服務器web應用訪問的地址和端口</description></property><property><name>mapreduce.application.classpath</name><value>/usr/local/hadoop/etc/hadoop,/usr/local/hadoop/share/hadoop/common/*,/usr/local/hadoop/share/hadoop/common/lib/*,/usr/local/hadoop/share/hadoop/hdfs/*,/usr/local/hadoop/share/hadoop/hdfs/lib/*,/usr/local/hadoop/share/hadoop/mapreduce/*,/usr/local/hadoop/share/hadoop/mapreduce/lib/*,/usr/local/hadoop/share/hadoop/yarn/*,/usr/local/hadoop/share/hadoop/yarn/lib/*</value></property> </configuration>

配置yarn-site.xml:

<configuration><!-- Site specific YARN configuration properties --><property><name>yarn.resourcemanager.address</name><value>master:8032</value><description>RsourceManager提供給客戶端訪問的地址,客戶端通過該地址向RM提交應用程序,殺死應用程序等</description></property><property><name>yarn.resourcemanager.scheduler.address</name><value>master:8030</value><description>定義作業歷史服務器的地址和端口,通過歷史服務器來查看已經運行完的mapreduce作業記錄</description></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>master:8031</value><description>ResourceManager提供給nodemanager的地址,nodemanager通過該地址向MR匯報心跳,領取任務等</description></property><property><name>yarn.resourcemanager.admin.address</name><value>master:8033</value><description>resourcemanager提供給管理員的地址,管理員可以通過該地址向RM發送管理命令</description></property><property><name>yarn.resourcemanager.webapp.address</name><value>master:8088</value><description>resourcemanager對web服務器提供的地址,用戶可以通過該地址在瀏覽器中查看集群的各類信息</description></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value><description></description></property><property><name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name><value>org.apache.hadoop.mapred.ShuffleHandler</value><description>通過該配置,用戶可以自定義一些服務,例如,map-reduce的shuffle功能就是采用這種方式來實現的,這樣就可以在nodemanager上擴展自己的服務</description></property> </configuration>

hadoop其他的相關配置:

  • 配置workers文件:
  • vim /usr/local/hadoop/etc/hadoop/workers #刪除loaclhost,添加 master slave1 slave2 #將master和兩個slave節點都當作data節點
  • 新建目錄/usr/local/hadoop/tmp,/usr/local/hadoop/dfs/name,/usr/local/hadoop/dfs/data
  • [root@master hadoop]# mkdir /usr/local/hadoop/tmp [root@master hadoop]# mkdir /usr/local/hadoop/dfs/name -p [root@master hadoop]# mkdir /usr/local/hadoop/dfs/data -p
  • 修改/usr/local/hadoop/權限
  • [root@master hadoop]# chown -R hadoop:hadoop /usr/local/hadoop/
  • 同步配置到slave節點:
  • [root@master hadoop]# scp -r /usr/local/hadoop/ root@slave1:/usr/local/ [root@master hadoop]# scp -r /usr/local/hadoop/ root@slave2:/usr/local/
  • 在每個slave節點上配置hadop環境變量:
  • vim /etc/profile #追加 #hadoop export HADOOP_HOME=/usr/local/hadoop export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH #刷新 source /etc/profile
  • 在slave節點上給hadoop目錄授權
  • [root@slave1 ~]# chown -R hadoop:hadoop /usr/local/hadoop/ [root@slave2 ~]# chown -R hadoop:hadoop /usr/local/hadoop/

    7.在master和slave節點上切換到Hadoop用戶

    su - hadoop

    master節點進行namenode格式化

    將namenode上的數據清零,第一次啟動HDFS時要進行格式化,以后啟動無須進行格式化,否則會datanode丟失。另外,只要運行過HDFS,hadoop的工作目錄就會有數據,如果需要重新格式化,則需要在格式化前刪除工作目錄的數據,否則會出問題。

    [hadoop@master ~]$ /usr/local/hadoop/bin/hdfs namenode -format WARNING: /usr/local/hadoop/logs does not exist. Creating. 2021-03-26 19:22:49,107 INFO namenode.NameNode: STARTUP_MSG: /************************************************************ STARTUP_MSG: Starting NameNode STARTUP_MSG: host = master/192.168.1.20 STARTUP_MSG: args = [-format] STARTUP_MSG: version = 3.2.2 ..............................................略 2021-03-27 09:53:13,285 INFO common.Storage: Storage directory /usr/local/hadoop/dfs/name has been successfully formatted. ............................略 2021-03-26 19:22:50,686 INFO namenode.NameNode: SHUTDOWN_MSG: /************************************************************ SHUTDOWN_MSG: Shutting down NameNode at master/192.168.1.20 ************************************************************/

    啟動namenode:

    [hadoop@master hadoop]$ /usr/local/hadoop/sbin/hadoop-daemon.sh start namenode WARNING: Use of this script to start HDFS daemons is deprecated. WARNING: Attempting to execute replacement "hdfs --daemon start" instead.

    查看java進程:

    [hadoop@master hadoop]$ jps 1625 NameNode 1691 Jps

    啟動datanode:

    [hadoop@master hadoop]$ /usr/local/hadoop/sbin/hadoop-daemon.sh start datanode WARNING: Use of this script to start HDFS daemons is deprecated. WARNING: Attempting to execute replacement "hdfs --daemon start" instead. [hadoop@master hadoop]$ jps 1825 Jps 1762 DataNode 1625 NameNode

    啟動secondarynamenode:

    [hadoop@master hadoop]$ /usr/local/hadoop/sbin/hadoop-daemon.sh start secondarynamenode WARNING: Use of this script to start HDFS daemons is deprecated. WARNING: Attempting to execute replacement "hdfs --daemon start" instead. [hadoop@master hadoop]$ jps 1762 DataNode 1893 SecondaryNameNode 1926 Jps 1625 NameNode

    檢查集群是否連接成功:

    [hadoop@master sbin]$ hdfs dfsadmin -report .........略 Live datanodes (1):Name: 192.168.1.20:9866 (master) Hostname: master Decommission Status : Normal Configured Capacity: 30041706496 (27.98 GB) DFS Used: 8192 (8 KB) Non DFS Used: 4121952256 (3.84 GB) DFS Remaining: 25919746048 (24.14 GB) DFS Used%: 0.00% DFS Remaining%: 86.28% Configured Cache Capacity: 0 (0 B) Cache Used: 0 (0 B) Cache Remaining: 0 (0 B) Cache Used%: 100.00% Cache Remaining%: 0.00% Xceivers: 1 Last contact: Sat Mar 27 13:36:07 CST 2021 Last Block Report: Sat Mar 27 13:22:55 CST 2021 Num of Blocks: 0

    出錯了,沒連接到兩個slave節點。

    解決方式:

    #一鍵停止服務 `/usr/local/hadoop/sbin/start-all.sh 刪除前面格式化和啟動服務產生的數據[刪除下面目錄中的所有文件]: /usr/local/hadoop/logs/ /usr/local/hadoop/dfs/data/ /usr/local/hadoop/dfs/name/ /usr/local/hadoop/tmp/ 重新格式化master 啟動服務 再次檢查` [hadoop@master sbin]$ hdfs dfsadmin -report Configured Capacity: 92271554560 (85.93 GB) Present Capacity: 81996009472 (76.36 GB) DFS Remaining: 81995984896 (76.36 GB) DFS Used: 24576 (24 KB) DFS Used%: 0.00% Replicated Blocks:Under replicated blocks: 0Blocks with corrupt replicas: 0Missing blocks: 0Missing blocks (with replication factor 1): 0Low redundancy blocks with highest priority to recover: 0Pending deletion blocks: 0 Erasure Coded Block Groups: Low redundancy block groups: 0Block groups with corrupt internal blocks: 0Missing block groups: 0Low redundancy blocks with highest priority to recover: 0Pending deletion blocks: 0------------------------------------------------- Live datanodes (3):Name: 192.168.1.20:9866 (master) Hostname: master Decommission Status : Normal Configured Capacity: 30041706496 (27.98 GB) DFS Used: 8192 (8 KB) Non DFS Used: 4121952256 (3.84 GB) DFS Remaining: 25919746048 (24.14 GB) DFS Used%: 0.00% DFS Remaining%: 86.28% Configured Cache Capacity: 0 (0 B) Cache Used: 0 (0 B) Cache Remaining: 0 (0 B) Cache Used%: 100.00% Cache Remaining%: 0.00% Xceivers: 1 Last contact: Sat Mar 27 13:36:07 CST 2021 Last Block Report: Sat Mar 27 13:22:55 CST 2021 Num of Blocks: 0Name: 192.168.1.21:9866 (slave1) Hostname: slave1 Decommission Status : Normal Configured Capacity: 31114924032 (28.98 GB) DFS Used: 8192 (8 KB) Non DFS Used: 3144146944 (2.93 GB) DFS Remaining: 27970768896 (26.05 GB) DFS Used%: 0.00% DFS Remaining%: 89.90% Configured Cache Capacity: 0 (0 B) Cache Used: 0 (0 B) Cache Remaining: 0 (0 B) Cache Used%: 100.00% Cache Remaining%: 0.00% Xceivers: 1 Last contact: Sat Mar 27 13:36:07 CST 2021 Last Block Report: Sat Mar 27 13:22:49 CST 2021 Num of Blocks: 0Name: 192.168.1.22:9866 (slave2) Hostname: slave2 Decommission Status : Normal Configured Capacity: 31114924032 (28.98 GB) DFS Used: 8192 (8 KB) Non DFS Used: 3009445888 (2.80 GB) DFS Remaining: 28105469952 (26.18 GB) DFS Used%: 0.00% DFS Remaining%: 90.33% Configured Cache Capacity: 0 (0 B) Cache Used: 0 (0 B) Cache Remaining: 0 (0 B) Cache Used%: 100.00% Cache Remaining%: 0.00% Xceivers: 1 Last contact: Sat Mar 27 13:36:07 CST 2021 Last Block Report: Sat Mar 27 13:22:49 CST 2021 Num of Blocks: 0

    停止服務:

    /usr/local/hadoop/sbin/hadoop-daemon.sh stop secondarynamenode/usr/local/hadoop/sbin/hadoop-daemon.sh stop datanode/usr/local/hadoop/sbin/hadoop-daemon.sh stop namenode

    一鍵開始和停止服務:

    /usr/local/hadoop/sbin/start-all.sh #開啟hadoop服務(namenode,datanode,secondarynamenode) /usr/local/hadoop/sbin/stop-all.sh #停止hadoop服務

    web端查看集群:

    http://192.168.1.20:50070/


    運行hadoop的wordcount進行測試

    先建hdfs文件系統中的/input目錄:

    [hadoop@master sbin]$ hdfs dfs -mkdir /input [hadoop@master sbin]$ hdfs dfs -ls / Found 1 items drwxr-xr-x - hadoop supergroup 0 2021-03-27 16:11 /input [hadoop@master sbin]$

    將輸入數據文件復制放入到hdfs的/input目錄中:

    [hadoop@master sbin]$ hdfs dfs -put /chenfeng/pzs.log /input [hadoop@master sbin]$ hdfs dfs -ls /input Found 1 items -rw-r--r-- 3 hadoop supergroup 199205376 2021-03-28 22:31 /input/pzs.log [hadoop@master sbin]$

    在瀏覽器查看:

    沒有看到文件,而且還報錯:

    `Failed to retrieve data from /webhdfs/v1/?op=LISTSTATUS: Server Error` 這是因為java 11以后 移除了javax.activation**。

    解決方法1:
    javax.activiation 文件的下載鏈接

    https://jar-download.com/?search_box=javax.activation `下載**javax.activiation** 由于下載到的文件是ZIP格式的是要提取hadoop\share\hadoop\common`

    下載的時候挑評星多的下載

    解決方法2:直接替換java版本為jdk8:

    https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html

    成功解決:

    運行wordcount案例:
    若是hdfs系統中存在/output目錄,先刪除,要不然在運行案例時無法生存新的/output目錄會執行失敗。

    #若存在/output目錄請刪除: hdfs dfs -rm -r -f /outtput

    測試開始:

    [hadoop@master sbin]$ hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.2.jar wordcount /input/pzs.log /output `2021-03-28 22:56:16,003 INFO client.RMProxy: Connecting to ResourceManager at master/192.168.1.20:8032 2021-03-28 22:56:17,202 INFO ipc.Client: Retrying connect to server: master/192.168.1.20:8032. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS) 2021-03-28 22:56:18,203 INFO ipc.Client: Retrying connect to server: master/192.168.1.20:8032. Already tried 1 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS) 2021-03-28 22:56:19,203 INFO ipc.Client: Retrying connect to server: master/192.168.1.20:8032. Already tried 2 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)`

    出現錯誤:

    根據錯誤 【Retrying connect to server: master/192.168.1.20:8032. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)】 發現原來是yarn沒有啟動,yarn啟動會有兩個進程: resourcemanager nodemanagers

    啟動yarn:

    [hadoop@master sbin]$ start-yarn.sh Starting resourcemanager Starting nodemanagers

    查看是否啟動成功:

    [hadoop@master sbin]$ jps 4357 Jps 1750 DataNode 1910 SecondaryNameNode 1630 NameNode

    啟動不成功

    同時查看日志:

    [root@master logs]# tailf hadoop-hadoop-resourcemanager-master.log [root@master logs]# tailf hadoop-hadoop-nodemanager-master.log

    在日志中有這樣的輸出:

    ` 2021-03-28 23:35:04,775 INFO org.apache.hadoop.yarn.server.resourcemanager.ResourceManager: registered UNIX signal handlers for [TERM, HUP, INT] 2021-03-28 23:35:05,212 INFO org.apache.hadoop.conf.Configuration: found resource core-site.xml at file:/usr/local/hadoop/etc/hadoop/core-site.xml 2021-03-28 23:35:05,317 INFO org.apache.hadoop.conf.Configuration: resource-types.xml not found 2021-03-28 23:35:05,317 INFO org.apache.hadoop.yarn.util.resource.ResourceUtils: Unable to find 'resource-types.xml'. 2021-03-28 23:35:05,348 INFO org.apache.hadoop.conf.Configuration: found resource yarn-site.xml at file:/usr/local/hadoop/etc/hadoop/yarn-site.xml 2021-03-28 23:35:05,350 INFO org.apache.hadoop.yarn.event.AsyncDispatcher: Registering class org.apache.hadoop.yarn.server.resourcemanager.RMFatalEventType for class org.apache.hadoop.yarn.server.resourcemanager.ResourceManager$RMFatalEventDispatcher 2021-03-28 23:35:05,390 INFO org.apache.hadoop.yarn.server.resourcemanager.security.NMTokenSecretManagerInRM: NMTokenKeyRollingInterval: 86400000ms and NMTokenKeyActivationDelay: 900000ms 2021-03-28 23:35:05,392 INFO org.apache.hadoop.yarn.server.resourcemanager.security.RMContainerTokenSecretManager: ContainerTokenKeyRollingInterval: 86400000ms and ContainerTokenKeyActivationDelay: 900000ms `

    提示找不到resource-types.xml

    原因,hadoop3.XXXX中需要配置各種的環境變量:

    解決辦法:

  • 在環境變量文件中添加hadoop需要的環境變量:
  • vim /etc/profile #在原有的java和hadoop的后面追加 export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_YARN_HOME=$HADOOP_HOME export HADOOP_INSTALL=$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export HADOOP_CONF_DIR=$HADOOP_HOME export HADOOP_LIBEXEC_DIR=$HADOOP_HOME/libexec export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export PATH=.:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH source /etc/profile

    修改配置:
    停止服務:

    [hadoop@master sbin]$ /usr/local/hadoop/sbin/stop-all.sh vim mapred-site.xml #添加<property><name>mapreduce.application.classpath</name><value>/usr/local/hadoop/etc/hadoop,/usr/local/hadoop/share/hadoop/common/*,/usr/local/hadoop/share/hadoop/common/lib/*,/usr/local/hadoop/share/hadoop/hdfs/*,/usr/local/hadoop/share/hadoop/hdfs/lib/*,/usr/local/hadoop/share/hadoop/mapreduce/*,/usr/local/hadoop/share/hadoop/mapreduce/lib/*,/usr/local/hadoop/share/hadoop/yarn/*,/usr/local/hadoop/share/hadoop/yarn/lib/*</value></property>

    啟動服務:

    [hadoop@master sbin]$ /usr/local/hadoop/sbin/start-all.sh

    繼續執行wordcount案例:

    [hadoop@master sbin]$ hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.2.jar wordcount /input/pslstreaming_log1.txt /output 2021-03-30 10:25:36,653 INFO client.RMProxy: Connecting to ResourceManager at master/192.168.1.20:8032 2021-03-30 10:25:37,432 INFO mapreduce.JobResourceUploader: Disabling Erasure Coding for path: /tmp/hadoop-yarn/staging/hadoop/.staging/job_1617071112579_0001 2021-03-30 10:25:37,979 INFO input.FileInputFormat: Total input files to process : 1 2021-03-30 10:25:38,225 INFO mapreduce.JobSubmitter: number of splits:1 2021-03-30 10:25:38,582 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1617071112579_0001 2021-03-30 10:25:38,583 INFO mapreduce.JobSubmitter: Executing with tokens: [] 2021-03-30 10:25:38,712 INFO conf.Configuration: resource-types.xml not found 2021-03-30 10:25:38,712 INFO resource.ResourceUtils: Unable to find 'resource-types.xml'. 2021-03-30 10:25:39,091 INFO impl.YarnClientImpl: Submitted application application_1617071112579_0001 2021-03-30 10:25:39,123 INFO mapreduce.Job: The url to track the job: http://master:8088/proxy/application_1617071112579_0001/ 2021-03-30 10:25:39,123 INFO mapreduce.Job: Running job: job_1617071112579_0001 2021-03-30 10:25:46,264 INFO mapreduce.Job: Job job_1617071112579_0001 running in uber mode : false 2021-03-30 10:25:46,264 INFO mapreduce.Job: map 0% reduce 0% 2021-03-30 10:25:53,462 INFO mapreduce.Job: map 100% reduce 0% 2021-03-30 10:25:58,543 INFO mapreduce.Job: map 100% reduce 100% 2021-03-30 10:25:59,555 INFO mapreduce.Job: Job job_1617071112579_0001 completed successfully 2021-03-30 10:25:59,617 INFO mapreduce.Job: Counters: 54 .........略

    不明白為什么這個錯誤還是存在【resource.ResourceUtils: Unable to find ‘resource-types.xml’.】

    查看輸出文件:

    [hadoop@master sbin]$ hdfs dfs -cat /output/part-r-00000|head "", 308 ""], 2 "9716168072", 601 "9716168072"}, 1 "?arrc=2&linkmode=7", 1 "Count=2 299 "a50_inactive_threshold": 300 "a50_refresh_interval": 119 "a50_state_check_interval": 300 "app_private_data": 299 cat: Unable to write to output stream. #太多,只輸出10行看一下

    在網頁端查看:

    在網頁中新建文件時出現錯誤,不能新建文件和目錄:

    `Permission denied: user=dr.who, access=WRITE, inode="/output":hadoop:supergroup:drwxr-xr-x`

    問題的分析:
    我在瀏覽器查看目錄和刪除目錄及文件,為什么會是dr.who,dr.who其實是hadoop中http訪問的靜態用戶名,并沒有啥特殊含義,可以在core-default.xml中看到其配置

    hadoop.http.staticuser.user=dr.who

    我們可以通過修改core-site.xml,配置為當前用戶,

    <property><name>hadoop.http.staticuser.user</name><value>hadoop</value></property>

    另外,通過查看hdfs的默認配置hdfs-default.xml發現hdfs默認是開啟權限檢查的。

    dfs.permissions.enabled=true #是否在HDFS中開啟權限檢查,默認為true

    解決方法一:
    直接修改/user目錄的權限設置,操作如下:

    hdfs dfs -chmod -R 755 /user `不知道什么原因不起作用,這個方法失敗` ```解決方法二: 在Hadoop的配置文件core-site.xml中增加如下配置:```bash <!-- 當前用戶全設置成root --> <property> <name>hadoop.http.staticuser.user</name> <value>hadoop</value> </property><!-- 不開啟權限檢查 --> <property> <name>dfs.permissions.enabled</name> <value>false</value> </property>

    查看:
    修改權限前:

    修改權限后:
    創建chenfeng目錄:

    輸入192.168.1.20:8088查看yarn集群中運行的作業:

    總結

    以上是生活随笔為你收集整理的hadoop集群平台的搭建的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    亚洲欧美国内爽妇网 | 在线v片| 视频成人永久免费视频 | 91社区国产高清 | 免费视频你懂得 | 欧美a级成人淫片免费看 | a在线播放 | 久久免费国产精品1 | 一本到视频在线观看 | 亚洲国产精品视频 | 九九免费在线观看视频 | 中文av网站| 92中文资源在线 | 久久久精品免费观看 | 五月天婷婷视频 | 91精彩视频在线观看 | 国产精品 国内视频 | 在线观看成人一级片 | 色综合咪咪久久网 | 国产精品中文字幕av | 国产精品美女久久久久久2018 | 人人狠狠综合久久亚洲婷 | 最近中文字幕视频网 | 香蕉视频在线视频 | 伊人婷婷网 | 96av在线| 最新日韩电影 | 在线免费成人 | 性色av一区二区三区在线观看 | 久久久不卡影院 | 69亚洲视频 | 91av中文字幕 | 精品国产免费一区二区三区五区 | 毛片美女网站 | 天天操天天操天天爽 | 久久精品国产精品亚洲精品 | 久久久久美女 | 色婷婷a | 国产精品一区二区三区四 | 黄色特级一级片 | 国产电影一区二区三区四区 | 国产一区二区三区四区在线 | 成人亚洲精品久久久久 | 午夜视频一区二区 | 中文字幕在线字幕中文 | 婷婷中文字幕 | 精品国精品自拍自在线 | 日日操天天爽 | 91精品婷婷国产综合久久蝌蚪 | 日日操日日干 | 激情深爱 | 日日爽夜夜操 | 国产亚洲在 | 中文字幕视频在线播放 | .精品久久久麻豆国产精品 亚洲va欧美 | 开心综合网 | 久久国产电影 | 国产最新视频在线观看 | 久久久91精品国产一区二区精品 | 99视频在线免费观看 | 婷婷av资源| 成人精品亚洲 | 亚洲精品在线国产 | 青青草国产成人99久久 | 91黄视频在线 | 91视频中文字幕 | 玖玖在线播放 | 国内久久精品 | 天天干视频在线 | 日韩一区二区三区高清在线观看 | 成人av资源网 | www.黄色片.com| 91视频 - 88av| 涩涩成人在线 | 免费看wwwwwwwwwww的视频 久久久久久99精品 91中文字幕视频 | 奇米网8888 | 久久在线免费观看视频 | 日本精品xxxx | 欧美最猛性xxxxx(亚洲精品) | 亚洲综合在线一区二区三区 | 一区二区三区在线视频111 | 日韩在线视频一区 | 免费看黄的视频 | 国内精品久久久久久久久久久久 | 狠狠亚洲 | 免费av黄色 | 91久久人澡人人添人人爽欧美 | 99在线精品视频观看 | 久久美女视频 | 国产精品久久电影观看 | 色www免费视频 | 免费亚洲婷婷 | 99在线观看视频网站 | 久久久久北条麻妃免费看 | 日日夜夜人人天天 | 黄色三级av| 久久手机精品视频 | 91久久电影| 久久韩国免费视频 | 99精品视频观看 | 久久精品视频网 | 日韩久久久久久久 | 精品91在线 | 日本性xxx | 91视频久久久久久 | 久久国产精品99久久久久久老狼 | 中文免费观看 | 在线观看亚洲精品 | 欧美嫩草影院 | 91久久丝袜国产露脸动漫 | 91在线视频播放 | 66av99精品福利视频在线 | 国产一级二级三级视频 | 欧美日韩免费视频 | 91亚洲欧美激情 | 成人黄色电影在线播放 | 免费福利在线 | 97超碰在线播放 | 亚洲国产精品va在线看黑人 | 黄色一二级片 | 99色在线播放 | 国产在线播放一区 | 在线观看黄色大片 | 国产在线观看高清视频 | 免费观看www7722午夜电影 | 久久精品99国产精品酒店日本 | 99热最新地址 | 国产精品免费小视频 | 欧美日韩国产高清视频 | 日韩高清 一区 | 精品国产伦一区二区三区观看体验 | 一区二区三区国产欧美 | 九色porny真实丨国产18 | 日本一区二区三区免费看 | 久久精品中文字幕少妇 | 国产91丝袜在线播放动漫 | 欧美激情操 | 99久久久久成人国产免费 | 日日夜夜操操 | 特级大胆西西4444www | 国产一区二区久久久 | 一区二区三区中文字幕在线观看 | 九九精品视频在线 | 久久婷婷开心 | 日本性动态图 | 四虎免费在线观看 | 综合久久久 | 99热99re6国产在线播放 | 99精品国产成人一区二区 | 在线免费观看不卡av | 国产精品99精品 | 精品国产一区二区三区噜噜噜 | 91亚洲精品久久久蜜桃网站 | 午夜性盈盈 | 日日爱999 | 337p日本大胆噜噜噜噜 | www免费看 | 九九免费观看全部免费视频 | 依人成人综合网 | 在线视频 影院 | 中文一区在线观看 | 激情综合色图 | 亚洲人在线视频 | 亚洲最新av在线网站 | 国产尤物一区二区三区 | 国产白浆视频 | 久久综合狠狠综合久久综合88 | 91精品第一页 | 在线国产视频 | 一区二区精品在线视频 | 国产精品一区二区av麻豆 | 美女视频黄免费 | 一区二区三区在线观看免费视频 | 国产精品永久久久久久久久久 | 国产99在线播放 | 在线黄色av| 久久不射电影院 | 国产超碰在线观看 | 免费a v视频 | 国产91学生粉嫩喷水 | 天天操天天操天天操天天 | 91在线免费观看网站 | 一区二区精品国产 | 91大片成人网 | 免费看成人 | 欧美日韩在线观看不卡 | 天躁狠狠躁 | 国产免费国产 | 欧美成天堂网地址 | 97超碰精品 | 狠狠干网| 色综合天天在线 | 高清一区二区三区av | 91污在线 | 狠狠黄| 国产精品久久久影视 | 激情久久五月 | 国产高清在线a视频大全 | 亚洲视频 中文字幕 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 特黄特黄的视频 | 天堂av一区二区 | 久久理伦片| 久久超碰97| 97操碰| www狠狠 | 在线观看国产中文字幕 | 久草免费在线 | 亚洲精品免费在线播放 | 色综合天天射 | 麻豆小视频在线观看 | 天天操综合网站 | 在线视频婷婷 | 成年人黄色在线观看 | 狠狠色狠狠色综合系列 | 欧美精品久久久久久久久老牛影院 | 亚洲欧美视屏 | 日韩电影一区二区在线观看 | 国产伦理剧 | 日本成人免费在线观看 | 成年人电影免费在线观看 | 国产一级免费视频 | 国产乱对白刺激视频在线观看女王 | 西西4444www大胆视频 | 黄色网中文字幕 | 四虎永久精品在线 | 97天堂网 | 中文字幕亚洲综合久久五月天色无吗'' | 亚洲国产精久久久久久久 | 探花系列在线 | 国产在线国产 | 日本少妇视频 | 亚洲视频专区在线 | 日韩v在线 | 婷婷日日 | 91片黄在线观看 | 国产一区免费看 | 黄色成人av网址 | 狠狠干婷婷 | 99se视频在线观看 | 美腿丝袜一区二区三区 | 7799av | 黄a网| 国产精品video爽爽爽爽 | 欧美在线一级片 | 五月天激情综合网 | 日韩a在线观看 | 另类五月激情 | 亚洲精品在线一区二区三区 | 免费看日韩片 | 91精品麻豆| 在线成人免费电影 | 日本九九视频 | 亚洲综合少妇 | 久久艹艹| 国产又黄又猛又粗 | 99超碰在线播放 | 久久久精品 一区二区三区 国产99视频在线观看 | 亚洲国产精品第一区二区 | 精品在线看| 2019免费中文字幕 | 五月开心六月婷婷 | 天天操网站 | 国产人在线成免费视频 | av看片网址 | 免费在线播放av电影 | 丁香婷婷基地 | 日韩二区三区 | 综合婷婷久久 | 国产精品美女视频 | 成人动漫一区二区 | 9999精品免费视频 | 99视频免费在线观看 | 在线观看日本韩国电影 | 婷婷丁香六月 | 免费观看一区二区 | 不卡的av| av福利在线免费观看 | 日韩在线网址 | 91成年视频 | 欧美91视频 | 91亚洲精品乱码久久久久久蜜桃 | 国产做爰视频 | 欧美日韩国产一区二区三区 | 最新国产精品拍自在线播放 | 黄色av一区二区 | 在线播放第一页 | 久久精品婷婷 | 91麻豆精品国产自产在线游戏 | 美女福利视频一区二区 | av成人黄色 | 91污在线观看 | 日韩精品久久一区二区三区 | 一本一本久久a久久精品综合小说 | 人人爽人人av | 美女网站色免费 | 日产中文字幕 | 日韩免费福利 | 国产精品久久99综合免费观看尤物 | 中文视频在线看 | 国产精品一区久久久久 | 中文国产在线观看 | 成人毛片在线观看视频 | 日韩美在线 | 91污视频在线 | 99热都是精品 | 四虎永久免费在线观看 | 香蕉成人在线视频 | 天天色天天射天天操 | av片子在线观看 | 在线免费观看国产黄色 | 日韩精品一二三 | 日本在线观看一区二区三区 | 97狠狠操| 一级做a爱片性色毛片www | 精品国产人成亚洲区 | 玖玖玖影院 | 91九色在线视频 | 少妇bbbb搡bbbb搡bbbb | 亚洲精品在线一区二区三区 | 欧美精品一二三 | 国内三级在线观看 | 国产精品女人久久久久久 | 婷婷丁香花五月天 | 毛片永久新网址首页 | av资源免费在线观看 | 中文字幕一区二区三区久久蜜桃 | 日韩视频免费在线观看 | 99视频在线精品国自产拍免费观看 | 亚洲精品tv久久久久久久久久 | 国产精品第54页 | 免费福利片2019潦草影视午夜 | 国产在线超碰 | 精品亚洲在线 | 色永久免费视频 | 天天色图 | 久久久久久久影视 | 波多野结衣视频一区二区 | 黄色小视频在线观看免费 | 日韩精品 在线视频 | 免费观看91视频 | 热久久在线视频 | 麻花豆传媒mv在线观看 | 午夜精品久久 | 伊人春色电影网 | 天天干天天操天天干 | 在线观看v片 | 久久综合九色综合久99 | 国产福利一区二区三区在线观看 | 日日色综合 | 国产高清在线视频 | 久久国产精品二国产精品中国洋人 | 午夜精品久久久久久久爽 | 亚洲成av人片在线观看无 | 在线观看日韩精品视频 | www天天操 | 亚洲综合视频网 | 亚洲天堂首页 | 日韩在线观看你懂得 | 国产一二三区在线观看 | 涩涩网站在线播放 | 香蕉影视app | 毛片a级片 | 91男人影院 | 国产免费影院 | 国产在线一区观看 | 日韩激情小视频 | 噜噜色官网 | 国内精品在线观看视频 | 国产成在线观看免费视频 | 999视频在线播放 | 国产午夜视频在线观看 | 在线看免费 | 国产资源精品在线观看 | 美女精品在线 | 日韩精品欧美专区 | 天堂网av在线 | 久久久久成人精品 | 日韩欧美网址 | www五月天com | www.久久婷婷 | 精品福利网 | 亚洲免费精品视频 | 国产拍在线 | 欧美日韩中文字幕视频 | 国产在线精品播放 | 2019中文字幕网站 | 久久精品免费观看 | 色婷婷88av视频一二三区 | 波多野结衣在线视频免费观看 | 亚洲国产精品传媒在线观看 | 婷婷香蕉 | 亚洲欧美国产精品久久久久 | 91视频在线播放视频 | 国产美女精彩久久 | 欧美精品久久久久久久免费 | 三级av免费观看 | 波多野结衣小视频 | 黄色.com| 久久免费资源 | 久久久人| 91在线视频在线 | 激情五月网站 | 中文字幕韩在线第一页 | 欧美性猛片 | 国产 在线 日韩 | 日本久久久久久科技有限公司 | 国产精品高清av | 麻豆94tv免费版 | 爱爱av在线 | 欧美成人精品三级在线观看播放 | 999成人国产| 欧美色综合| 激情欧美网| 最近中文国产在线视频 | 亚洲黄色片在线 | 色综合久久久久久久 | 国产精品成人自拍 | 综合在线亚洲 | 免费观看9x视频网站在线观看 | 久久爽久久爽久久av东京爽 | 91香蕉视频 mp4| 免费电影一区二区三区 | 91手机电影| 一区二区视频在线播放 | 999精品| 午夜国产福利在线 | 亚洲精品国产精品国自产观看 | 久草视频播放 | 日韩一区精品 | a视频在线 | 永久免费的啪啪网站免费观看浪潮 | h视频在线看 | 国产玖玖在线 | 日韩av中文字幕在线 | 这里有精品在线视频 | 999久久久久久 | 日本成人免费在线观看 | 国产高清视频免费最新在线 | 人成电影网 | 揉bbb玩bbb少妇bbb | 成人免费xxxxxx视频 | av在线最新 | 天天操天天干天天综合网 | 狠狠综合久久av | 久久久久99精品国产片 | 国产日产高清dvd碟片 | 一本一本久久a久久精品综合妖精 | 亚洲一区二区三区在线看 | 黄色三级免费片 | 久草视频手机在线 | 日韩aⅴ视频 | 黄色激情网址 | aaaaaa毛片| 成人小视频在线观看免费 | 国产亚洲精品成人 | 亚洲第一区在线观看 | 国产成人在线看 | 日韩欧美在线视频一区二区三区 | 国产精品mv在线观看 | 成人在线小视频 | 韩日视频在线 | 超碰公开在线观看 | 久久99久久99精品免费看小说 | 国产精品剧情在线亚洲 | 成人av亚洲 | 亚洲欧美婷婷六月色综合 | 国产精品久久久久久一区二区 | 色婷婷狠狠五月综合天色拍 | www.天天射| 99久久婷婷国产综合精品 | 国产不卡免费av | 婷婷久久综合九色综合 | 人人射人人爱 | 最新av网址在线观看 | 久久66热这里只有精品 | 婷婷九月激情 | 一区 二区电影免费在线观看 | 婷婷久久丁香 | www黄色av| 国产精品亚洲人在线观看 | 久久久久中文字幕 | 500部大龄熟乱视频使用方法 | 一区二区三区久久精品 | 欧美日韩a视频 | 国产小视频在线免费观看视频 | 亚洲一区二区三区在线看 | 亚洲少妇自拍 | 天天狠狠操 | 黄色免费网站下载 | 在线v片免费观看视频 | 999久久国产 | 婷婷精品国产一区二区三区日韩 | 黄色软件视频网站 | 免费看的毛片 | 久久看片网 | 日本中文字幕在线免费观看 | 日韩啪啪小视频 | 99精品视频在线免费观看 | 午夜精品久久久久久久爽 | 亚洲一区欧美精品 | 99c视频高清免费观看 | 亚洲一区二区三区精品在线观看 | 久久免费毛片 | 国产精品18久久久久久首页狼 | 欧美日韩视频一区二区三区 | 丁香视频全集免费观看 | 91麻豆视频网站 | 伊人亚洲精品 | 国产黄色一级片 | 国产123区在线观看 国产精品麻豆91 | 午夜精品福利在线 | 日韩网站视频 | 国产永久免费观看 | 在线视频观看成人 | 亚洲激情精品 | 四虎在线免费观看 | 国产色道 | 精品国产自在精品国产精野外直播 | a级国产毛片 | 免费视频三区 | 精品国产免费一区二区三区五区 | av电影 一区二区 | 精品国内自产拍在线观看视频 | 亚洲一区二区三区在线看 | 中文字幕在线观看视频一区 | 在线91精品 | 在线免费观看国产精品 | 国产精品久久久久久欧美 | 国产精品久久久999 国产91九色视频 | 夜夜操夜夜干 | 超碰九九 | 国产福利中文字幕 | 亚a在线| 天天操天天操天天爽 | 在线观看中文字幕亚洲 | 国产精品video| 国产精品普通话 | 国产日韩精品一区二区三区在线 | 天天色官网 | 天海翼一区二区三区免费 | 狠狠色丁香九九婷婷综合五月 | 婷婷激情五月 | 在线观看视频亚洲 | 在线观看av国产 | 久草在线资源免费 | 极品美女被弄高潮视频网站 | 日韩高清免费在线 | 色婷婷在线播放 | 亚洲在线视频观看 | 一区二区三区在线免费播放 | 99在线免费视频 | 六月丁香在线观看 | 99九九99九九九视频精品 | 色午夜 | 成人网中文字幕 | 久久久久久97三级 | 国产美女视频网站 | 久久久www免费电影网 | 黄网站色成年免费观看 | 日本视频久久久 | 欧美午夜a| 最新日韩在线 | 日日干综合 | 五月婷婷久草 | 精品国产亚洲一区二区麻豆 | 色偷偷88欧美精品久久久 | 久久国产精品久久w女人spa | 国产黄a三级| 国产精品免费看久久久8精臀av | 日韩中文在线视频 | 免费黄色网址网站 | 五月天久久久久久 | 射射色| av黄色免费在线观看 | 国内揄拍国产精品 | 国产精品 中文字幕 亚洲 欧美 | av软件在线观看 | 免费看片网址 | 精品一区电影国产 | 亚洲爱爱视频 | 国产精品嫩草影院9 | 午夜三级影院 | 色在线网 | 久久午夜羞羞影院 | 伊人久久一区 | 精品国产自 | 日韩久久精品一区二区三区下载 | 在线观看色网 | 欧美一级电影 | 欧美在线观看小视频 | 国产麻豆精品一区二区 | 就要色综合 | 成人免费xxx在线观看 | 久章操 | 国产原创在线 | 手机在线视频福利 | 91大神免费视频 | 色综合天天视频在线观看 | 国产精品毛片一区 | 在线观看黄色小视频 | 国内精品久久影院 | 国产精品日韩精品 | 日韩三级免费观看 | 天天射天天操天天色 | 国产精品一区欧美 | 99久久99久久精品国产片 | 国产做a爱一级久久 | 精品中文字幕在线观看 | 国产精品门事件 | 日本精品中文字幕在线观看 | 超碰成人网| 99精品在线视频观看 | 一区二区精 | av在线h | 久久免费99 | 狠狠干综合网 | 黄色精品视频 | av国产在线观看 | 日韩久久久 | 免费无遮挡动漫网站 | 色视频一区 | 五月婷婷一级片 | 96国产精品| 最近高清中文在线字幕在线观看 | 国产精品久久影院 | 国产手机视频 | 国产中文欧美日韩在线 | 中日韩在线 | 欧美xxxx性xxxxx高清 | 国产精品久久久久四虎 | 日韩一区二区免费视频 | 欧美日韩高清在线一区 | 91看片麻豆 | 日批网站免费观看 | 国产一区二区三区免费在线 | 九九在线高清精品视频 | 亚洲免费不卡 | 精品久久一二三区 | www.日本色 | 久久久久综合精品福利啪啪 | 蜜臀aⅴ国产精品久久久国产 | av东方在线 | 亚洲电影一区二区 | 久久国产精品99国产 | 亚洲精品乱码久久久久久久久久 | 亚洲精品视频在线观看视频 | 国产一级久久久 | 亚洲精品观看 | 久久99久久99精品免视看婷婷 | 精品视频免费观看 | 九草视频在线 | 国产又粗又猛又爽又黄的视频免费 | 中字幕视频在线永久在线观看免费 | av中文在线 | 丝袜精品视频 | 综合天天 | 国产精品成人免费精品自在线观看 | 韩国精品视频在线观看 | 成人欧美一区二区三区黑人麻豆 | av免费福利 | 日本久久高清视频 | 国产乱对白刺激视频在线观看女王 | 亚洲精品资源在线观看 | 欧美国产日韩中文 | 精品91 | 久久天天操 | 婷婷色亚洲 | 精品国产一区二区三区久久久蜜臀 | 青青久草在线视频 | 久久免费视频在线 | 五月婷婷在线综合 | 成人av在线影院 | 91亚洲国产成人久久精品网站 | 少妇bbb搡bbbb搡bbbb | 亚洲成人网在线 | 国产精品成人久久久 | 看片的网址| 天天天天综合 | 九色精品在线 | 91久久精品一区二区三区 | 2023年中文无字幕文字 | 日韩欧美网址 | 亚洲精品女 | 中午字幕在线 | 午夜精品剧场 | 久草视频在线资源 | 国产精品18p | 在线成人一区二区 | 18做爰免费视频网站 | 久草在线观看资源 | av免费看av | 国产在线观看av | 亚洲视频 中文字幕 | 国产精品不卡一区 | 在线电影91 | 久久66热这里只有精品 | 天天草av| 亚洲欧美日韩一二三区 | 夜夜视频| 色综合咪咪久久网 | 国产亚洲欧洲 | 日本久久久久久久久久久 | 免费久久99精品国产 | 久草在线视频网站 | 91在线入口 | 国产香蕉在线 | 欧美视频99 | 久久久黄色免费网站 | 日本3级在线观看 | 国产精品麻 | 亚洲视频国产 | 国产丝袜在线 | 五月婷婷六月综合 | avav片| 黄网站大全 | 国产精品一区二区久久久 | 国产精品久久久久久妇 | 亚洲人成免费 | 国产黄色视 | 精品夜夜嗨av一区二区三区 | 欧美在线视频二区 | 亚洲免费成人 | 性色在线视频 | 日本精品中文字幕在线观看 | 中文字幕av免费 | 久久久久久久久久久精 | 亚洲视频免费 | 日本韩国精品一区二区在线观看 | 亚洲黄色软件 | 91完整版| 亚洲男模gay裸体gay | 999国产在线 | 欧美 亚洲 另类 激情 另类 | av成人亚洲 | 美女视频黄色免费 | 日韩欧美国产免费播放 | 网站在线观看日韩 | 亚洲精品乱码久久久久久久久久 | 丁香婷婷在线观看 | 三级动图| 成人午夜黄色影院 | 午夜成人影视 | 黄网站免费大全入口 | 免费观看一级一片 | 久久精品国产成人精品 | av在线永久免费观看 | 国产又黄又爽又猛视频日本 | 91mv.cool在线观看 | 在线亚洲高清视频 | 婷婷综合五月天 | 久久综合婷婷 | 免费视频国产 | 亚洲成人av影片 | 日韩丝袜在线观看 | 亚洲精品动漫久久久久 | 丁香婷婷色 | 成人中心免费视频 | 精品自拍av | 99在线观看免费视频精品观看 | 最近中文字幕免费视频 | 欧美久久电影 | 在线观看av大片 | 中文字幕国产精品一区二区 | a午夜在线 | 天天操天天干天天操天天干 | 国产成人精品一区二三区 | 日日爽视频 | 天天干,天天操 | .精品久久久麻豆国产精品 亚洲va欧美 | 国产伦理精品一区二区 | 香蕉成人在线视频 | 日本精品一二区 | 免费网站v | 日本动漫做毛片一区二区 | 日日夜夜精品网站 | 亚洲婷婷在线 | 中文字幕在线高清 | 99这里只有精品视频 | 91精品第一页 | 中字幕视频在线永久在线观看免费 | 黄色免费网站大全 | 69av视频在线 | 免费一级特黄毛大片 | 成人福利在线观看 | 91av大全| av天天在线观看 | 久久一区二区免费视频 | 草久久影院 | 免费观看性生交大片3 | 精品国产一区二区三区噜噜噜 | 99在线高清视频在线播放 | 亚洲va天堂va欧美ⅴa在线 | 狠狠躁日日躁狂躁夜夜躁 | 久草视频在线播放 | 国产精品久久网站 | 在线观看视频一区二区三区 | 在线视频欧美精品 | 国产aaa毛片| 亚洲日本va中文字幕 | 911香蕉视频 | 国内精品久久久久国产 | 精品国产理论 | 国产xxxxx在线观看 | 亚洲 欧美 综合 在线 精品 | 911国产精品| 国产清纯在线 | 日本韩国欧美在线观看 | 亚洲免费资源 | 在线草 | 久久天堂影院 | 成人在线视频你懂的 | 国产精品 国产精品 | 精品久久久久久久久中文字幕 | 亚洲综合在线五月 | 日韩高清在线看 | 亚洲特级片 | 爱色婷婷| 天天干天天射天天操 | 亚洲欧美国产精品 | 欧美性粗大hdvideo | 亚洲精品黄色 | 国产福利一区二区在线 | 国产日韩精品一区二区三区在线 | 中文字幕av一区二区三区四区 | 91污污 | 国内久久久久 | 在线观看视频黄色 | 激情影音先锋 | 插久久 | 亚洲手机av | 天天摸天天舔天天操 | 九九热在线观看视频 | 六月天色婷婷 | 成年人毛片在线观看 | 中文资源在线观看 | 日韩二区在线播放 | 91精品国产99久久久久久久 | 久久精品视频日本 | 久久综合一本 | 五月开心六月伊人色婷婷 | 91亚洲激情 | 日韩成人免费电影 | 涩涩资源网 | 国产一级在线视频 | 毛片网在线播放 | 天堂av一区二区 | 国产91精品久久久久久 | 国产亚洲视频中文字幕视频 | 网站在线观看你们懂的 | 成人在线播放网站 | 就要色综合 | 国产又粗又猛又黄又爽视频 | 久久国产一区二区 | 日韩黄色影院 | 91视频 - 88av | 久久色网站 | 国产 日韩 欧美 中文 在线播放 | 免费a级观看 | 亚洲永久国产精品 | 一区av在线播放 | 99九九视频 | 午夜av网站 | 伊人天天综合 | 公与妇乱理三级xxx 在线观看视频在线观看 | 97超碰人人干 | 黄色一级影院 | 国产精品久久在线观看 | 久久久久一区 | 久久久久亚洲精品中文字幕 | 一区二区三区在线观看 | 五月天久久久久久 | 中文字幕乱码在线播放 | 日韩中文字幕免费看 | 黄色精品一区二区 | 日本精品一 | 免费在线观看成人av | 久久久96| 国际精品久久 | 欧美亚洲国产精品久久高清浪潮 | 天堂在线视频中文网 | 最新日韩在线观看视频 | 久久免费在线观看视频 | 四虎永久免费在线观看 | 日本亚洲国产 | 久久理论电影 | 黄色一区三区 | 69亚洲视频 | 国产不卡av在线播放 | 欧美日本在线视频 | 福利视频导航网址 | 国产精品久久久久久久久大全 | 国产精品中文字幕在线 | 欧美日韩三级在线观看 | 视频二区 | 在线观看黄污 | 丁香免费视频 | 安徽妇搡bbbb搡bbbb | 日韩av手机在线看 | 91看成人| 国产成人精品久久二区二区 | 一本色道久久综合亚洲二区三区 | 国产精品久免费的黄网站 | 欧美日韩成人 | 91福利社区在线观看 | 日本久久久精品视频 | 一区二区三区电影大全 | 久久久18 | 免费看片色 | 992tv人人草 黄色国产区 | 国产 日韩 在线 亚洲 字幕 中文 | 中文字幕精品一区二区三区电影 | 色欧美视频 | 一区二区三区高清在线观看 | 国产精品福利在线观看 | 欧美91精品国产自产 | 日韩av在线资源 | 一区二区中文字幕在线观看 | 久久艹中文字幕 | 欧美aⅴ在线观看 | 婷婷精品国产欧美精品亚洲人人爽 | 久久久美女 | 午夜精品视频免费在线观看 | 九九精品无码 | 欧美aa一级 | 亚洲一区天堂 | 日韩欧美视频在线免费观看 | 亚洲动漫在线观看 | 免费成人在线网站 | 高清不卡免费视频 | 日韩三级在线观看 | 国产一级a毛片视频爆浆 | 日韩va亚洲va欧美va久久 | 亚洲久草在线视频 | 夜夜爽天天爽 | 日韩免费成人av | 午夜18视频在线观看 | 91精品国产一区二区在线观看 | www.午夜 | 99热精品视| 少妇bbw搡bbbb搡bbb | 精品欧美一区二区精品久久 | 美女久久久久久 | 中国精品一区二区 | 在线播放第一页 | 中国一级片在线播放 | 福利久久久| 久久久久看片 | 亚洲激情p| 99久久精品免费一区 | 黄网av在线 | 99久久9| 99国产精品一区二区 | 天天爱天天射 | 欧美日韩国产在线 | 国产成人亚洲在线观看 | 国产亚洲在 | a成人在线| 久草爱| 91成版人在线观看入口 | 四虎成人网 | 不卡视频在线 | av中文在线影视 | 精品99在线视频 | 在线精品视频免费播放 | 新av在线| 日韩av在线看 | 国产精品美女www爽爽爽视频 | 欧美国产一区在线 | 超碰在线天天 | 欧美在线观看视频一区二区 | 色婷婷综合视频在线观看 | 99久久精品无免国产免费 | 在线免费观看羞羞视频 | 亚洲一区二区三区四区精品 | 综合久久久久 | 亚洲精品视频在线观看免费 | 国产馆在线播放 | 成全免费观看视频 | 一级精品视频在线观看宜春院 | 日韩免费在线视频 | 免费av观看 | 天天操夜夜爱 | 国产探花 | 日韩免费视频观看 | 日韩精品视频网站 | www.久久久.cum| 国产精品久久一区二区三区不卡 | 麻豆免费看片 | 黄色一级免费网站 | 国产成人一区二区在线观看 | 91手机电视 | 国产97色在线 | 久久精品一区二区三区视频 | 日韩av电影免费在线观看 | 又黄又刺激 | 天天色天天操天天爽 | 在线观看亚洲国产精品 |