日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

[转]大数据环境搭建步骤详解(Hadoop,Hive,Zookeeper,Kafka,Flume,Hbase,Spark等安装与配置)

發布時間:2023/12/4 编程问答 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 [转]大数据环境搭建步骤详解(Hadoop,Hive,Zookeeper,Kafka,Flume,Hbase,Spark等安装与配置) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

?

?

大數據環境安裝和配置(Hadoop2.7.7,Hive2.3.4,Zookeeper3.4.10,Kafka2.1.0,Flume1.8.0,Hbase2.1.1,Spark2.4.0等)

  • 系統說明
  • 搭建步驟詳述
    • 一、節點基礎配置
      • ?
    • 二、Hadoop安裝和配置
    • 三、Hive安裝和配置
    • 四、ZooKeeper安裝和配置
    • 五、Kafka安裝和配置
    • 六、Flume安裝和配置
    • 七、Hbase安裝和配置
    • 八、Spark安裝和配置
  • 總結

?

?

前言:本篇文章是以Hadoop為基礎,搭建各種可能會用到的環境的基本步驟,包括:Hadoop,Hive,Zookeeper,Kafka,Flume,Hbase,Spark等。在實際應用中可能未必需要用到所有的這些,請讀者們按需取舍。
注意:因為有些環境之間存在相互依賴,所以在搭建環境或者使用其的過程中要注意順序。比如說Hive是依賴于Hadoop的,搭建使用Hive前,Hadoop集群肯定要提前搭建好并啟動起來;搭建使用Hbase時,由于其依賴于Hadoop和Zookeeper,所以需要提前搭建并啟動好Hadoop和ZooKeeper集群。一定要注意哦!
另外,本人為了給廣大讀者提供方便,不需要每次都自己去找相關安裝包下載,我已將本篇文章搭建時涉及的安裝包都下載好放入百度云鏈接:https://pan.baidu.com/s/1gjQuTECI2LliFc5qDdqTIg 提取碼:l5p3 ),大家直接一次性下載下來到你的主機就行了,到時候后直接上傳到你們自己的虛擬機系統里就可以了(上傳主機文件到虛擬機里可以用WinSCP軟件)

?

系統說明

?

  • 系統:CentOS 7.6
  • 節點信息:

?

節點ip
master192.168.185.150
slave1192.168.185.151
slave2192.168.185.152

搭建步驟詳述

?

一、節點基礎配置

?

1、配置各節點網絡

?

# 注意:centos自從7版本以后網卡名變成ens33而不是我這里的eth0了,我是習慣eth0了所以在安裝的時候修改了網卡名,如果你的centos網卡名是ens33不要緊,就把我這里eth0的地方都換成你的ens33,對后面沒影響。[root@master ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth0 TYPE="Ethernet" BOOTPROTO="static" NAME="eth0" DEVICE="eth0" ONBOOT="yes" IPADDR=192.168.185.150 NETMASK=255.255.255.0 GATEWAY=192.168.185.2[root@master ~]# vim /etc/resolv.conf nameserver 192.168.185.2# 對其他兩個slave節點也同樣做上述操作,只不過在IPADDR值不一樣,分別填其節點對應的ip

?

?

2、修改每個節點主機名,添加各節點映射

?

# 在其他兩個子節點的hostname處分別填slave1和slave2 [root@master ~]# vim /etc/hostname master[root@master ~]# vim /etc/hosts 192.168.185.150 master 192.168.185.151 slave1 192.168.185.152 slave2

?

3、關閉防火墻

?

# 三個節點都要做# 把SELINUX那值設為disabled [root@master ~]# vim /etc/selinux/config SELINUX=disabled[root@master ~]# systemctl stop firewalld [root@master ~]# systemctl disable firewalld [root@master ~]# systemctl status firewalld

?

4、都重啟以生效

?

[root@master ~]# reboot [root@master ~]# ping www.baidu.com# 注意下,重啟后若ping百度不通,可能是因為namesever那重啟后自動被改了,所以導致ping百度不通,如果這樣的話就再重新寫下上面的resolv.conf [root@master ~]# vim /etc/resolv.conf nameserver 192.168.185.2# 這下應該就通了,ping下百度試試看 [root@master ~]# ping www.baidu.com PING www.a.shifen.com (119.75.217.109) 56(84) bytes of data. 64 bytes from 119.75.217.109: icmp_seq=1 ttl=128 time=30.6 ms 64 bytes from 119.75.217.109: icmp_seq=2 ttl=128 time=30.9 ms 64 bytes from 119.75.217.109: icmp_seq=3 ttl=128 time=30.9 ms

?

5、配置節點間ssh免密登陸

?

[root@master ~]# ssh-keygen -t rsa # 上面這條命令,遇到什么都別管,一路回車鍵敲下去# 拷貝本密鑰到三個節點上 [root@master ~]# ssh-copy-id master [root@master ~]# ssh-copy-id slave1 [root@master ~]# ssh-copy-id slave2# master節點上做完后,再在其他兩個節點上重復上述操作

?

都做完后,用ssh命令節點間相互測試下:

?

[root@master ~]# ssh slave1 # 就會發現在master節點上免密登陸到了slave1,再敲logout就退出slave1了

?

?

6、安裝java

?

# 之后我們所有的環境配置包都放到/usr/local/下# 新建java目錄,把下載好的jdk的二進制包拷到下面(你可以直接在centos里下載,或者在你主機下載好,上傳到虛擬機的centos上) [root@master ~]# cd /usr/local [root@master local]# mkdir java [root@master local]# cd java [root@master java]# tar -zxvf jdk-8u191-linux-x64.tar.gz # 配置環境變量,在profile文件最后添加java的環境變量 [root@master ~]# vim /etc/profile export JAVA_HOME=/usr/local/java/jdk1.8.0_191 export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin[root@master ~]# source /etc/profile [root@master ~]# java -version java version "1.8.0_191" Java(TM) SE Runtime Environment (build 1.8.0_191-b12) Java HotSpot(TM) 64-Bit Server VM (build 25.191-b12, mixed mode)# 在其他兩個節點上重復上述操作

?

到此為止,基本配置就結束了。

?

二、Hadoop安裝和配置

?

– 介紹:
Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算。
HDFS,Hadoop Distributed File System,是一個分布式文件系統,用來存儲 Hadoop 集群中所有存儲節點上的文件,包含一個 NameNode 和大量 DataNode。NameNode,它在 HDFS 內部提供元數據服務,負責管理文件系統名稱空間和控制外部客戶機的訪問,決定是否將文件映射到 DataNode 上。DataNode,它為 HDFS 提供存儲塊,響應來自 HDFS 客戶機的讀寫請求。
MapReduce是一種編程模型,用于大規模數據集的并行運算。概念"Map(映射)“和"Reduce(歸約)”,是它們的主要思想,即指定一個Map(映射)函數,用來把一組鍵值對映射成一組新的鍵值對,指定并發的Reduce(歸約)函數,用來保證所有映射的鍵值對中的每一個共享相同的鍵組。

?

1、下載解壓

?

# 在/usr/local下創建hadoop文件夾,將下載好的hadoop-2.7.7壓縮包上傳進去解壓 [root@master ~]# cd /usr/local [root@master local]# mkdir hadoop [root@master local]# cd hadoop [root@master hadoop]# tar -zxvf hadoop-2.7.7.tar

?

2、配置環境變量

?

[root@master hadoop]# vim /etc/profile export JAVA_HOME=/usr/local/java/jdk1.8.0_191 export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin[root@master hadoop]# source /etc/profile

?

3、 配置core-site.xml

?

# 配置文件主要在hadoop-2.7.7/etc/hadoop下面 [root@master hadoop]# cd hadoop-2.7.7/etc/hadoop# 把該文件<configuration>那塊按如下修改 [root@master hadoop]# vim core-site.xml <configuration> <property><name>fs.defaultFS</name><value>hdfs://master:9000</value> </property> <property><name>hadoop.tmp.dir</name><value>/usr/local/data</value> </property> </configuration># 配置文件中的/usr/local/data是用來存儲臨時文件的,所以該文件夾需要手動創建 [root@master hadoop]# mkdir /usr/local/data

?

4、配置hdfs-site.xml

?

[root@master hadoop]# vim hdfs-site.xml <configuration> <property><name>dfs.name.dir</name><value>/usr/local/data/namenode</value> </property> <property><name>dfs.data.dir</name><value>/usr/local/data/datanode</value> </property> <property><name>dfs.replication</name><value>2</value> </property> </configuration>

?

5、配置mapred-site.xml

?

# 先修改文件名字 [root@master hadoop]# mv mapred-site.xml.template mapred-site.xml[root@master hadoop]# vim mapred-site.xml <configuration> <property><name>mapreduce.framework.name</name><value>yarn</value> </property> </configuration>

?

6、配置yarn-site.xml

?

[root@master hadoop]# vim yarn-site.xml <configuration> <!-- Site specific YARN configuration properties --> <property><name>yarn.resourcemanager.hostname</name><value>master</value> </property> <property><name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>

?

7、修改slaves

?

[root@master hadoop]# vim slaves slave1 slave2

?

8、修改hadoop-env.sh文件

?

# 在“export JAVA_HOME=”那一行把java環境修改成自己的路徑 [root@master hadoop]# vim hadoop-env.sh export JAVA_HOME=/usr/local/java/jdk1.8.0_191

?

9、直接把配置好的hadoop包傳到剩下兩個子節點同樣的位置下

?

[root@master hadoop]# cd /usr/local [root@master local]# scp -r hadoop root@192.168.185.151:/usr/local/ [root@master local]# scp -r hadoop root@192.168.185.152:/usr/local/

?

10、在其他兩個子節點別漏掉的操作

?

# 別忘了!在兩個子節點/usr/local/下也要創建好data目錄。# 別忘了!在兩個子節點重復下步驟2, 配置好hadoop環境變量。

?

11、測試是否成功

?

# 只要在主節點上啟動,執行過程可能稍慢,耐心等待# 先格式化 [root@master ~]# hdfs namenode -format# 啟動hdfs [root@master ~]# cd /usr/local/hadoop/hadoop-2.7.7/ [root@master hadoop-2.7.7]# sbin/start-dfs.sh# 啟動yarn [root@master hadoop-2.7.7]# sbin/start-yarn.sh

?

在主節點上輸入jps命令查看,以下就對了:

在子節點上輸入jps命令查看,以下就對了:

在瀏覽器上訪問可視化頁面:http://192.168.185.150:50070

到此為止,hadoop配置就結束了。

?

三、Hive安裝和配置

?

– 介紹:

?

Hive是基于Hadoop的一個數據倉庫工具,可以將結構化的數據文件映射為一張數據庫表,并提供簡單的sql查詢功能,可以將sql語句轉換為MapReduce任務進行運行。 其優點是學習成本低,可以通過和SQL類似的HiveQL語言快速實現簡單的MapReduce統計,不必開發專門的MapReduce應用,十分適合數據倉庫的統計分析。同時,這個語言也允許熟悉 MapReduce 開發者的開發自定義的 mapper 和 reducer 來處理內建的 mapper 和 reducer 無法完成的復雜的分析工作。
Hive 沒有專門的數據格式。所有Hive 的數據都存儲在Hadoop兼容的文件系統(例如HDFS)中。Hive 在加載數據過程中不會對數據進行任何的修改,只是將數據移動到HDFS中Hive 設定的目錄下,因此,Hive 不支持對數據的改寫和添加,所有的數據都是在加載的時候確定的。

?

1、環境配置

?

# 注意:Hive只需要在master節點上安裝配置[root@master ~]# cd /usr/local [root@master local]# mkdir hive [root@master local]# cd hive [root@master hive]# tar -zxvf apache-hive-2.3.4-bin.tar.gz [root@master hive]# mv apache-hive-2.3.4-bin hive-2.3.4# 添加Hive環境變量 [root@master hive]# vim /etc/profile export JAVA_HOME=/usr/local/java/jdk1.8.0_191 export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export HIVE_HOME=/usr/local/hive/hive-2.3.4 export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin[root@master hive]# source /etc/profile

?

2、修改 hive-site.xml

?

[root@master hive]# cd hive-2.3.4/conf [root@master conf]# mv hive-default.xml.template hive-site.xml# 在hive-site.xml中找到下面的幾個對應name的property,然后把value值更改 # 這里提醒一下,因為hive-site.xml幾千多行,根據name找property的話不太方便,有兩種建議: # 1、把這個xml文件弄到你自己的主機上,用軟件(比如notepad++)修改好,在上傳回centos上相應位置 # 2、在之前給你的百度云鏈接里,我也上傳了修改好的hive-site.xml文件,如果你版本跟我用的一樣,可以直接拿去用[root@master conf]# vim hive-site.xml <property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://master:3306/hive_metadata?createDatabaseIfNotExist=true</value><description>JDBC connect string for a JDBC metastore.To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.</description></property><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value><description>Driver class name for a JDBC metastore</description></property><property><name>javax.jdo.option.ConnectionUserName</name><value>hive</value><description>Username to use against metastore database</description></property><property><name>javax.jdo.option.ConnectionPassword</name><value>hive</value><description>password to use against metastore database</description></property><property><name>hive.querylog.location</name><value>/usr/local/hive/hive-2.3.4/tmp/hadoop</value><description>Location of Hive run time structured log file</description></property><property><name>hive.server2.logging.operation.log.location</name><value>/usr/local/hive/hive-2.3.4/tmp/hadoop/operation_logs</value><description>Top level directory where operation logs are stored if logging functionality is enabled</description></property><property><name>hive.exec.local.scratchdir</name><value>/usr/local/hive/hive-2.3.4/tmp/hadoop</value><description>Local scratch space for Hive jobs</description></property><property><name>hive.downloaded.resources.dir</name><value>/usr/local/hive/hive-2.3.4/tmp/${hive.session.id}_resources</value><description>Temporary local directory for added resources in the remote file system.</description></property><property><name>hive.metastore.schema.verification</name><value>false</value><description>Enforce metastore schema version consistency.True: Verify that version information stored in is compatible with one from Hive jars. Also disable automaticschema migration attempt. Users are required to manually migrate schema after Hive upgrade which ensuresproper metastore schema migration. (Default)False: Warn if the version information stored in metastore doesn't match with one from in Hive jars.</description></property>

?

3、修改hive-env.sh文件

?

[root@master conf]# mv hive-env.sh.template hive-env.sh# 找到下面的位置,做對應修改 [root@master conf]# vim hive-env.sh # Set HADOOP_HOME to point to a specific hadoop install directory HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7# Hive Configuration Directory can be controlled by: export HIVE_CONF_DIR=/usr/local/hive/hive-2.3.4/conf# Folder containing extra libraries required for hive compilation/execution can be controlled by: # export HIVE_AUX_JARS_PATH= export JAVA_HOME=/usr/local/java/jdk1.8.0_191 export HIVE_HOME=/usr/local/hive/hive-2.3.4

?

4、把下載好的mysql-connector-java.jar這個jar包拷到/usr/local/hive/hive-2.3.4/lib/下面,在給你們的百度云鏈接里都有

?

5、安裝并配置mysql(因為hive的元數據是存儲在mysql里的)

?

[root@master ~]# cd /usr/local/src/ [root@master src]# wget http://dev.mysql.com/get/mysql-community-release-el7-5.noarch.rpm [root@master src]# rpm -ivh mysql-community-release-el7-5.noarch.rpm [root@master src]# yum install mysql-community-server# 這里時間較長,耐心等待...# 安裝完成后,重啟服務 [root@master src]# service mysqld restart [root@master src]# mysql Welcome to the MySQL monitor. Commands end with ; or \g. Your MySQL connection id is 3 Server version: 5.6.42 MySQL Community Server (GPL) Copyright (c) 2000, 2018, Oracle and/or its affiliates. All rights reserved. Oracle is a registered trademark of Oracle Corporation and/or its affiliates. Other names may be trademarks of their respective owners. Type 'help;' or '\h' for help. Type '\c' to clear the current input statement. mysql># mysql安裝成功

?

6、在mysql上創建hive元數據庫,創建hive賬號,并進行授權

?

# 在mysql上連續執行下述命令: # create database if not exists hive_metadata; # grant all privileges on hive_metadata.* to 'hive'@'%' identified by 'hive'; # grant all privileges on hive_metadata.* to 'hive'@'localhost' identified by 'hive'; # grant all privileges on hive_metadata.* to 'hive'@'master' identified by 'hive'; # flush privileges; # use hive_metadata;[root@master src]# mysql Welcome to the MySQL monitor. Commands end with ; or \g. Your MySQL connection id is 3 Server version: 5.6.42 MySQL Community Server (GPL) Copyright (c) 2000, 2018, Oracle and/or its affiliates. All rights reserved. Oracle is a registered trademark of Oracle Corporation and/or its affiliates. Other names may be trademarks of their respective owners. Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.mysql> create database if not exists hive_metadata; Query OK, 1 row affected (0.00 sec)mysql> grant all privileges on hive_metadata.* to 'hive'@'%' identified by 'hive'; Query OK, 0 rows affected (0.00 sec)mysql> grant all privileges on hive_metadata.* to 'hive'@'localhost' identified by 'hive'; Query OK, 0 rows affected (0.00 sec)mysql> grant all privileges on hive_metadata.* to 'hive'@'master' identified by 'hive'; Query OK, 0 rows affected (0.00 sec)mysql> flush privileges; Query OK, 0 rows affected (0.00 sec)mysql> use hive_metadata; Database changed mysql> exit Bye

?

7、初始化

?

[root@master src]# schematool -dbType mysql -initSchema

?

8、測試驗證hive

?

# 我們先創建一個txt文件存點數據等下導到hive中去 [root@master src]# vim users.txt 1,浙江工商大學 2,杭州 3,I love 4,ZJGSU 5,加油哦# 進入hive,出現命令行就說明之前搭建是成功的 [root@master src]# hive hive># 創建users表,這個row format delimited fields terminated by ','代表我們等下導過來的文件中字段是以逗號“,”分割字段的 # 所以我們上面users.txt不同字段中間有逗號 hive> create table users(id int, name string) row format delimited fields terminated by ','; OK Time taken: 7.29 seconds# 導數據 hive> load data local inpath '/usr/local/src/users.txt' into table users; Loading data to table default.users OK Time taken: 1.703 seconds# 查詢 hive> select * from users; OK 1 浙江工商大學 2 杭州 3 I love 4 ZJGSU 5 加油哦 Time taken: 2.062 seconds, Fetched: 5 row(s)# ok,測試成功!

?

到此為止,hive配置就結束了,其實hive的配置挺繁瑣的,不要急慢慢來,加油!

?

四、ZooKeeper安裝和配置

?

– 介紹:
ZooKeeper是一個分布式的應用程序協調服務,是Hadoop和Hbase的重要組件。它是一個為分布式應用提供一致性服務的軟件,提供的功能包括:配置維護、域名服務、分布式同步、組服務等。其目標就是封裝好復雜易出錯的關鍵服務,將簡單易用的接口和性能高效、功能穩定的系統提供給用戶。
那么Zookeeper能做什么事情呢?舉個簡單的例子:假設我們有20個搜索引擎的服務器(每個負責總索引中的一部分的搜索任務)和一個總服務器(負責向這20個搜索引擎的服務器發出搜索請求并合并結果集),一個備用的總服務器(負責當總服務器宕機時替換總服務器),一個web的cgi(向總服務器發出搜索請求)。搜索引擎的服務器中的15個服務器提供搜索服務,5個服務器正在生成索引。這20個搜索引擎的服務器經常要讓正在提供搜索服務的服務器停止提供服務開始生成索引,或生成索引的服務器已經把索引生成完成可以提供搜索服務了。使用Zookeeper可以保證總服務器自動感知有多少提供搜索引擎的服務器并向這些服務器發出搜索請求,當總服務器宕機時自動啟用備用的總服務器。

?

1、環境配置

?

[root@master local]# mkdir zookeeper [root@master local]# cd zookeeper# 將下載好的zookeeper壓縮包上傳進來解壓 [root@master zookeeper]# tar -zxvf zookeeper-3.4.10.tar.gz # 配置zookeeper環境變量 [root@master zookeeper]# vim /etc/profile export JAVA_HOME=/usr/local/java/jdk1.8.0_191 export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export HIVE_HOME=/usr/local/hive/hive-2.3.4 export ZOOKEEPER_HOME=/usr/local/zookeeper/zookeeper-3.4.10 export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin:$ZOOKEEPER_HOME/bin[root@master zookeeper]# source /etc/profile

?

2、配置zoo.cfg文件

?

[root@master zookeeper]# cd zookeeper-3.4.10/conf [root@master conf]# mv zoo_sample.cfg zoo.cfg# 把 dataDir 那一行修改成自己的地址,在文件最后再加上三行server的配置 [root@master conf]# vim zoo.cfg dataDir=/usr/local/zookeeper/zookeeper-3.4.10/dataserver.0=master:2888:3888 server.1=slave1:2888:3888 server.2=slave2:2888:3888

?

3、配置myid文件

?

[root@master conf]# cd .. [root@master zookeeper-3.4.10]# mkdir data [root@master zookeeper-3.4.10]# cd data [root@master data]# vim myid 0

?

4、配置另外兩個節點

?

# 把上面配置好的zookeeper文件夾直接傳到兩個子節點 [root@master data]# cd ../../.. [root@master local]# scp -r zookeeper root@192.168.185.151:/usr/local/ [root@master local]# scp -r zookeeper root@192.168.185.152:/usr/local/# 注意在兩個子節點上把myid文件里面的 0 給分別替換成 12# 注意在兩個子節點上像步驟1一樣,在/etc/profile文件里配置zookeeper的環境變量,保存后別忘source一下

?

5、測試一下

?

# 在三個節點上分別執行命令,啟動服務: zkServer.sh start# 在三個節點上分別執行命令,查看狀態: zkServer.sh status # 正確結果應該是:三個節點中其中一個是leader,另外兩個是follower# 在三個節點上分別執行命令: jps # 檢查三個節點是否都有QuromPeerMain進程

?

到此為止,zookeeper配置就結束了,這個應該不難。

?

五、Kafka安裝和配置

?

– 介紹:
Kafka是一種高吞吐量的分布式發布訂閱消息系統,它可以處理消費者規模的網站中的所有動作流數據。Producer即生產者,向Kafka集群發送消息,在發送消息之前,會對消息進行分類,即主題(Topic),通過對消息指定主題可以將消息分類,消費者可以只關注自己需要的Topic中的消息。Consumer,即消費者,消費者通過與kafka集群建立長連接的方式,不斷地從集群中拉取消息,然后可以對這些消息進行處理。

?

1、安裝Scala

?

Kafka由Scala和Java編寫,所以我們先需要安裝配置Scala:

?

[root@master ~]# cd /usr/local [root@master local]# mkdir scala [root@master local]# cd scala/ # 下載好的scala壓縮包上傳進去解壓 [root@master scala]# tar -zxvf scala-2.11.8.tgz# 配置環境變量 [root@master scala]# vim /etc/profile export JAVA_HOME=/usr/local/java/jdk1.8.0_191 export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export HIVE_HOME=/usr/local/hive/hive-2.3.4 export ZOOKEEPER_HOME=/usr/local/zookeeper/zookeeper-3.4.10 export SCALA_HOME=/usr/local/scala/scala-2.11.8 export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin:$ZOOKEEPER_HOME/bin:$SCALA_HOME/bin[root@master scala]# source /etc/profile# 驗證 [root@master scala-2.11.8]# scala -version Scala code runner version 2.11.8 -- Copyright 2002-2018, LAMP/EPFL and Lightbend, Inc.# 然后在剩下兩個子節點中重復上述步驟!

?

2、安裝配置Kafka

?

# 創建目錄,把下載好的壓縮包上傳解壓 [root@master local]# mkdir kafka [root@master local]# cd kafka [root@master kafka]# tar -zxvf kafka_2.11-2.1.0.tgz [root@master kafka]# mv kafka_2.11-2.1.0 kafka-2.1.0# 配置環境變量 [root@master kafka]# vim /etc/profile export JAVA_HOME=/usr/local/java/jdk1.8.0_191 export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export HIVE_HOME=/usr/local/hive/hive-2.3.4 export ZOOKEEPER_HOME=/usr/local/zookeeper/zookeeper-3.4.10 export KAFKA_HOME=/usr/local/kafka/kafka-2.1.0 export SCALA_HOME=/usr/local/scala/scala-2.11.8 export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin:$ZOOKEEPER_HOME/bin:$KAFKA_HOME/bin:$SCALA_HOME/bin[root@master kafka]# source /etc/profile# 修改server.properties文件,找到對應的位置,修改如下 [root@master kafka]# vim kafka-2.1.0/config/server.properties broker.id=0 listeners=PLAINTEXT://192.168.185.150:9092 advertised.listeners=PLAINTEXT://192.168.185.150:9092 zookeeper.connect=192.168.185.150:2181,192.168.185.151:2181,192.168.185.152:2181# 把master節點上修改好的kafka整個文件夾傳到其余兩個子節點 [root@master kafka]# cd /usr/local [root@master local]# scp -r kafka root@192.168.185.151:/usr/local/ [root@master local]# scp -r kafka root@192.168.185.152:/usr/local/# 在另外兩個節點上,對server.properties要有幾處修改 # broker.id 分別修改成: 12 # listeners 在ip那里分別修改成子節點對應的,即 PLAINTEXT://192.168.185.151:9092 和 PLAINTEXT://192.168.185.152:9092 # advertised.listeners 也在ip那里分別修改成子節點對應的,即 PLAINTEXT://192.168.185.151:9092 和 PLAINTEXT://192.168.185.152:9092 # zookeeper.connect 不需要修改 # 另外兩個節點上也別忘了配置kafka環境變量

?

3、測試

?

# 在三個節點都啟動kafka [root@master local]# cd kafka/kafka-2.1.0/ [root@master kafka-2.1.0]# nohup kafka-server-start.sh /usr/local/kafka/kafka-2.1.0/config/server.properties & # 在主節點上創建主題TestTopic [root@master kafka-2.1.0]# kafka-topics.sh --zookeeper 192.168.185.150:2181,192.168.185.151:2181,192.168.185.152:2181 --topic TestTopic --replication-factor 1 --partitions 1 --create# 在主節點上啟動一個生產者 [root@master kafka-2.1.0]# kafka-console-producer.sh --broker-list 192.168.185.150:9092,192.168.185.151:9092,192.168.185.152:9092 --topic TestTopic# 在其他兩個節點上分別創建消費者 [root@slave1 kafka-2.1.0]# kafka-console-consumer.sh --bootstrap-server 192.168.185.151:9092 --topic TestTopic --from-beginning [root@slave2 kafka-2.1.0]# kafka-console-consumer.sh --bootstrap-server 192.168.185.152:9092 --topic TestTopic --from-beginning# 在主節點生產者命令行那里隨便輸入一段話: > hello world# 然后你就會發現在其他兩個消費者節點那里也出現了這句話,即消費到了該數據

?

到此為止,kafka配置就結束了。

?

六、Flume安裝和配置

?

– 介紹:
Flume是Cloudera提供的一個高可用的,高可靠的,分布式的海量日志采集、聚合和傳輸的系統,Flume支持在日志系統中定制各類數據發送方,用于收集數據;同時,Flume提供對數據進行簡單處理,并寫到各種數據接受方(可定制)的能力。Flume提供了從console(控制臺)、RPC(Thrift-RPC)、text(文件)、tail(UNIX tail)、syslog(syslog日志系統),支持TCP和UDP等2種模式),exec(命令執行)等數據源上收集數據的能力。
使用Flume,我們可以將從多個服務器中獲取的數據迅速的移交給Hadoop中,可以高效率的將多個網站服務器中收集的日志信息存入HDFS/HBase中。

?

注意:flume只需要在主節點配置,不需要在其他節點配置

?

1、環境配置

?

# 創建目錄,將下載好的壓縮包上傳并解壓 [root@master local]# mkdir flume [root@master local]# cd flume/ [root@master flume]# tar -zxvf apache-flume-1.8.0-bin.tar.gz [root@master flume]# mv apache-flume-1.8.0-bin flume-1.8.0# 環境變量 [root@master flume]# vim /etc/profile export JAVA_HOME=/usr/local/java/jdk1.8.0_191 export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export HIVE_HOME=/usr/local/hive/hive-2.3.4 export ZOOKEEPER_HOME=/usr/local/zookeeper/zookeeper-3.4.10 export KAFKA_HOME=/usr/local/kafka/kafka-2.1.0 export SCALA_HOME=/usr/local/scala/scala-2.11.8 export FLUME_HOME=/usr/local/flume/flume-1.8.0 export FLUME_CONF_DIR=$FLUME_HOME/conf export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin:$ZOOKEEPER_HOME/bin:$KAFKA_HOME/bin:$SCALA_HOME/bin:$FLUME_HOME/bin[root@master flume]# source /etc/profile

?

2、修改flume-conf.properties文件

?

[root@master flume]# cd flume-1.8.0/conf [root@master conf]# mv flume-conf.properties.template flume-conf.properties# 在文件最后加上下面的內容 [root@master conf]# vim flume-conf.properties #agent1表示代理名稱 agent1.sources=source1 agent1.sinks=sink1 agent1.channels=channel1 #配置source1 agent1.sources.source1.type=spooldir agent1.sources.source1.spoolDir=/usr/local/flume/logs agent1.sources.source1.channels=channel1 agent1.sources.source1.fileHeader = false agent1.sources.source1.interceptors = i1 agent1.sources.source1.interceptors.i1.type = timestamp #配置channel1 agent1.channels.channel1.type=file agent1.channels.channel1.checkpointDir=/usr/local/flume/logs_tmp_cp agent1.channels.channel1.dataDirs=/usr/local/flume/logs_tmp #配置sink1 agent1.sinks.sink1.type=hdfs agent1.sinks.sink1.hdfs.path=hdfs://master:9000/logs agent1.sinks.sink1.hdfs.fileType=DataStream agent1.sinks.sink1.hdfs.writeFormat=TEXT agent1.sinks.sink1.hdfs.rollInterval=1 agent1.sinks.sink1.channel=channel1 agent1.sinks.sink1.hdfs.filePrefix=%Y-%m-%d# 我們看到上面的配置文件中代理 agent1.sources.source1.spoolDir 監聽的文件夾是/usr/local/flume/logs,所以我們要手動創建一下 [root@master conf]# cd ../.. [root@master flume]# mkdir logs# 上面的配置文件中 agent1.sinks.sink1.hdfs.path=hdfs://master:9000/logs下,即將監聽到的/usr/local/flume/logs下的文件自動上傳到hdfs的/logs下,所以我們要手動創建hdfs下的目錄 [root@master flume]# hdfs dfs -mkdir /logs

?

3、測試

?

# 啟動服務 [root@master flume]# flume-ng agent -n agent1 -c conf -f /usr/local/flume/flume-1.8.0/conf/flume-conf.properties -Dflume.root.logger=DEBUG,console# 先看下hdfs的logs目錄下,目前什么都沒有 [root@master flume]# hdfs dfs -ls -R /

?

?

# 我們在/usr/local/flume/logs隨便創建個文件 [root@master flume]# cd logs [root@master logs]# vim flume_test.txt hello world ! guang 浙江工商大學# 然后我們發現hdfs的logs下自動上傳了我們剛剛創建的文件 [root@master logs]# hdfs dfs -ls -R /

?

?

[root@master logs]# hdfs dfs -cat /logs/2018-12-31.1546242551842 hello world ! guang 浙江工商大學

?

到此為止,flume配置就結束了。

?

七、Hbase安裝和配置

?

– 介紹:
HBase – Hadoop Database,是一個高可靠性、高性能、面向列、可伸縮的分布式存儲系統。Hadoop HDFS為HBase提供了高可靠性的底層存儲支持,Hadoop MapReduce為HBase提供了高性能的計算能力,Zookeeper為HBase提供了穩定服務和failover機制。

?

1、環境配置

?

創建目錄,將下載好的壓縮包上傳并解壓 [root@master local]# mkdir hbase [root@master local]# cd hbase [root@master hbase]# tar -zxvf hbase-2.1.1-bin.tar.gz# 環境變量 [root@master hbase]# vim /etc/profile export JAVA_HOME=/usr/local/java/jdk1.8.0_191 export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export HIVE_HOME=/usr/local/hive/hive-2.3.4 export ZOOKEEPER_HOME=/usr/local/zookeeper/zookeeper-3.4.10 export KAFKA_HOME=/usr/local/kafka/kafka-2.1.0 export SCALA_HOME=/usr/local/scala/scala-2.11.8 export FLUME_HOME=/usr/local/flume/flume-1.8.0 export FLUME_CONF_DIR=$FLUME_HOME/conf export HBASE_HOME=/usr/local/hbase/hbase-2.1.1 export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin:$ZOOKEEPER_HOME/bin:$KAFKA_HOME/bin:$SCALA_HOME/bin:$FLUME_HOME/bin:$HBASE_HOME/bin[root@master hbase]# source /etc/profile

?

2、修改hbase-env.sh文件

?

[root@master hbase]# cd hbase-2.1.1/conf [root@master conf]# vim hbase-env.sh export JAVA_HOME=/usr/local/java/jdk1.8.0_191 export HBASE_LOG_DIR=${HBASE_HOME}/logs export HBASE_MANAGES_ZK=false

?

3、修改hbase-site.xml 文件

?

[root@master conf]# vim hbase-site.xml <configuration> <property> <name>hbase.rootdir</name> <value>hdfs://master:9000/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>master,slave1,slave2</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/usr/local/zookeeper/zookeeper-3.4.10/data</value> </property> <property><name>hbase.tmp.dir</name><value>/usr/local/hbase/data/tmp</value></property><property> <name>hbase.master</name> <value>hdfs://master:60000</value> </property><property><name>hbase.master.info.port</name><value>16010</value></property><property><name>hbase.regionserver.info.port</name><value>16030</value></property> </configuration>

?

4、修改regionservers文件

?

[root@master conf]# vim regionservers master slave1 slave2

?

5、其他兩個子節點的配置

?

# 把上面配置好的hbase整個文件夾傳過去 [root@master conf]# cd ../../.. [root@master local]# scp -r hbase root@192.168.185.151:/usr/local/ [root@master local]# scp -r hbase root@192.168.185.152:/usr/local/# 別忘在另外兩個節點也要在/etc/profile下配置環境變量并source一下使生效! # 在所有節點上都手動創建/usr/local/hbase/data/tmp目錄,也就是上面配置文件中hbase.tmp.dir屬性的值,用來保存臨時文件的。

?

6、測試

?

# 注意:測試Hbase之前,zookeeper和hadoop需要提前啟動起來 [root@master local]# cd hbase/hbase-2.1.1 [root@master hbase-2.1.1]# bin/start-hbase.sh [root@master hbase-2.1.1]# jps # 正確結果:主節點上顯示:HMaster / 子節點上顯示:HRegionServer

?

在主機瀏覽器上訪問:http://192.168.185.150:16010

到此為止,Hbase配置就結束了。

?

八、Spark安裝和配置

?

– 介紹:
Apache Spark 是專為大規模數據處理而設計的快速通用的計算引擎,是類似于Hadoop MapReduce的通用并行框架。Spark擁有Hadoop MapReduce所具有的優點,但不同于MapReduce的是——Job中間輸出結果可以保存在內存中,從而不再需要讀寫HDFS,因此Spark能更好地適用于數據挖掘與機器學習等需要迭代的MapReduce的算法。Spark實際上是對Hadoop的一種補充,可以很好的在Hadoop 文件系統中并行運行。

?

1、環境配置

?

# 創建目錄,將下載好的壓縮包上傳并解壓 [root@master local]# mkdir spark [root@master local]# cd spark [root@master spark]# tar -zxvf spark-2.4.0-bin-hadoop2.7.tgz [root@master spark]# mv spark-2.4.0-bin-hadoop2.7 spark-2.4.0# 配置環境變量 [root@master spark]# vim /etc/profile export JAVA_HOME=/usr/local/java/jdk1.8.0_191 export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export HIVE_HOME=/usr/local/hive/hive-2.3.4 export ZOOKEEPER_HOME=/usr/local/zookeeper/zookeeper-3.4.10 export KAFKA_HOME=/usr/local/kafka/kafka-2.1.0 export SCALA_HOME=/usr/local/scala/scala-2.11.8 export FLUME_HOME=/usr/local/flume/flume-1.8.0 export FLUME_CONF_DIR=$FLUME_HOME/conf export HBASE_HOME=/usr/local/hbase/hbase-2.1.1 export SPARK_HOME=/usr/local/spark/spark-2.4.0 export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin:$ZOOKEEPER_HOME/bin:$KAFKA_HOME/bin:$SCALA_HOME/bin:$FLUME_HOME/bin:$HBASE_HOME/bin:$SPARK_HOME/bin[root@master spark]# source /etc/profile

?

2、修改spark-env.sh文件

?

[root@master spark]# cd spark-2.4.0/conf/ [root@master conf]# mv spark-env.sh.template spark-env.sh [root@master conf]# vim spark-env.sh export JAVA_HOME=/usr/local/java/jdk1.8.0_191 export SCALA_HOME=/usr/local/scala/scala-2.11.8 export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7 export HADOOP_CONF_DIR=/usr/local/hadoop/hadoop-2.7.7/etc/hadoop

?

3、修改slaves文件

?

[root@master conf]# mv slaves.template slaves [root@master conf]# vim slaves master slave1 slave2

?

4、在其余兩個子節點上操作

?

# 把上面配置好的spark整個文件夾傳過去 [root@master conf]# cd ../../.. [root@master local]# scp -r spark root@192.168.185.151:/usr/local/ [root@master local]# scp -r spark root@192.168.185.152:/usr/local/# 別忘在另外兩個節點也要在/etc/profile下配置環境變量并source一下使生效!

?

5、啟動

?

[root@master local]# cd spark/spark-2.4.0/ [root@master spark-2.4.0]# sbin/start-all.sh

?

啟動完畢后在主機瀏覽器訪問界面:http://192.168.185.150:8080/

OK成功,到此為止,Spark配置就結束了!現在我們來測試運行一個spark內部自帶的計算圓周率的例子代碼:

?

[root@master spark-2.4.0]# ./bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master local \ examples/jars/spark-examples_2.11-2.4.0.jar

?

在控制臺輸出中我們可以找到計算結果:

?

總結

?

以上就是《基于Hadoop的大數據環境搭建步驟詳解(Hadoop,Hive,Zookeeper,Kafka,Flume,Hbase,Spark等安裝與配置)》。一定要耐心操作一遍,遇到問題不要緊張,慢慢來,加油!
寫完這篇也夠長的,算是2019年的新年禮物了,休息休息啦!


---------------------
作者:原來浙小商啊
來源:CSDN
原文:https://blog.csdn.net/pig2guang/article/details/85313410
版權聲明:本文為作者原創文章,轉載請附上博文鏈接!

總結

以上是生活随笔為你收集整理的[转]大数据环境搭建步骤详解(Hadoop,Hive,Zookeeper,Kafka,Flume,Hbase,Spark等安装与配置)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

中文字幕亚洲不卡 | 欧美在线视频不卡 | 色资源网免费观看视频 | 久久深夜福利免费观看 | 久久黄色小说 | www好男人 | 国产一级二级三级视频 | 操夜夜操| 亚洲国产人午在线一二区 | 一区二区三区电影 | 狠色在线 | 中文字幕乱码在线播放 | 日本三级不卡视频 | 亚洲欧美综合精品久久成人 | 日韩视频免费观看高清完整版在线 | 免费视频一二三 | 波多野结衣电影一区二区 | 午夜黄色 | 国产在线精品国自产拍影院 | 日本久久久久久久久久 | 久久综合亚洲鲁鲁五月久久 | 91人人射| 99情趣网视频| 999精品视频| 久久中文视频 | 又湿又紧又大又爽a视频国产 | 人人爱夜夜操 | 最新免费中文字幕 | 日韩精品资源 | 成人h电影在线观看 | 免费黄色在线播放 | 色综合久久88 | 国产在线视频在线观看 | 玖玖玖在线| 色吊丝在线永久观看最新版本 | av中文字幕在线观看网站 | 国产三级精品在线 | 天天插一插 | 狠狠干网址 | 久久99精品久久久久久久久久久久 | 右手影院亚洲欧美 | 国产色在线 | 中文字幕在线视频精品 | 亚洲经典视频在线观看 | 五月婷婷网站 | 精品99免费视频 | 美女免费视频观看网站 | 久久精品久久精品久久 | 一区在线免费观看 | 国产高清在线观看 | 久草视频在线播放 | 国产精品视频永久免费播放 | 99re亚洲国产精品 | av成人免费 | 亚洲人视频在线 | 在线有码中文字幕 | 国产一区二区视频在线播放 | 精品国产伦一区二区三区观看说明 | 高清久久久久久 | 国产中文字幕一区 | 韩国av三级 | 九草在线观看 | 欧美精品亚州精品 | 日韩中字在线观看 | 国产剧情在线一区 | 500部大龄熟乱视频 欧美日本三级 | 99精品国产99久久久久久97 | 久久人人添人人爽添人人88v | 午夜资源站 | 亚洲毛片一区二区三区 | 国产精品18久久久久久久久久久久 | 麻豆国产网站 | 国产精成人品免费观看 | 国产精品一区二区精品视频免费看 | 在线不卡中文字幕播放 | 天堂av观看 | 99爱精品视频 | 亚洲男人天堂2018 | 夜色成人网 | 最近中文字幕在线播放 | 国产精品一区二区久久精品爱微奶 | 国产又粗又猛又黄又爽 | 精品久久在线 | 亚洲丝袜中文 | av看片网 | 久久综合中文色婷婷 | 欧美日韩高清国产 | 91成人免费观看视频 | 91视频亚洲 | 97在线观视频免费观看 | 国产精品伦一区二区三区视频 | 中文字幕视频网站 | 国产一级二级视频 | 免费看黄色大全 | 久草在线费播放视频 | 韩国中文三级 | 久久精品视频在线免费观看 | 黄色毛片视频免费观看中文 | 国产精品9999久久久久仙踪林 | 亚洲一区欧美激情 | 国产精品21区 | 欧美精品一区二区性色 | 精品国产精品一区二区夜夜嗨 | 久久综合九色综合欧美就去吻 | 国产一区二区在线观看免费 | 国产成人精品亚洲a | 久久精品日韩 | av在线网站大全 | 日日干,天天干 | 免费日韩一区二区三区 | 亚洲va欧美va人人爽 | 最近更新中文字幕 | 丁香综合激情 | 亚洲一区二区三区91 | 久久精品视频2 | 久久天| 国产精品第2页 | 日韩免费精品 | 国产精品色 | 懂色av一区二区三区蜜臀 | 色欲综合视频天天天 | 999国内精品永久免费视频 | 亚洲精品国产精品国自产在线 | 91九色在线观看 | 久久久免费高清视频 | 国产视频观看 | 欧美 亚洲 另类 激情 另类 | 天天做日日爱夜夜爽 | 97在线观看免费观看 | 一级片免费观看视频 | 亚洲综合成人婷婷小说 | 成年人免费av | 婷婷色亚洲 | 91亚洲精品视频 | 8090yy亚洲精品久久 | 1000部国产精品成人观看 | 久久久影院一区二区三区 | 久久久久久久久影视 | 国产精品99蜜臀久久不卡二区 | 九九九九热精品免费视频点播观看 | 精品少妇一区二区三区在线 | 日日夜夜网 | 69xx视频| 一区二区三区四区五区在线 | 在线a视频免费观看 | 日本在线观看中文字幕 | 免费日韩一区二区 | 日韩一级片观看 | 国产精品18videosex性欧美 | 日韩欧美视频二区 | www·22com天天操| 国产亚洲精品久久久久久电影 | 日韩三级.com | 狠狠狠色狠狠色综合 | 免费国产黄线在线观看视频 | 在线观看中文字幕视频 | 日韩v欧美v日本v亚洲v国产v | www.夜夜干.com| 天天色天天射天天操 | www178ccom视频在线 | 国产亚洲精品久久久久久大师 | 日韩在线精品视频 | 五月激情五月激情 | 中文字幕在线观看资源 | 青青草在久久免费久久免费 | 免费看久久久 | 久久99久久99精品中文字幕 | 手机在线免费av | 色综合亚洲精品激情狠狠 | 亚洲电影在线看 | 国产又黄又猛又粗 | 狠狠干夜夜爽 | 91香蕉视频在线下载 | 成人sm另类专区 | 韩日在线一区 | 怡红院av久久久久久久 | 69久久99精品久久久久婷婷 | 色婷婷精品 | 五月网婷婷| 香蕉精品在线观看 | 精品国产电影一区二区 | 久久久久久久久亚洲精品 | 日本xxxx裸体xxxx17 | 欧美日韩精品在线一区二区 | 香蕉视频国产在线观看 | 亚洲视频第一页 | 成人黄色片免费看 | 中文字幕 国产视频 | 三级av免费| 亚洲日本韩国一区二区 | 国产精品成人国产乱 | av中文字幕免费在线观看 | 最近中文字幕免费 | 久久成人资源 | 国产在线自 | 免费视频91蜜桃 | 欧美aaa大片 | 91麻豆精品国产91久久久久久 | 久久久综合电影 | 综合久久久久久久 | 91大神免费在线观看 | 欧美日韩一区二区三区在线免费观看 | 天天干天天操天天做 | 日韩69视频 | 国产精品网站一区二区三区 | 国产精久久久 | 深爱开心激情 | 日日操网站 | 天天干天天草天天爽 | 国产黄色电影 | 在线免费高清 | 国产系列在线观看 | 九九九九九九精品任你躁 | 96久久精品 | 99r精品视频在线观看 | 免费电影播放 | 国产69精品久久久久9999apgf | 国产91区 | 亚州免费视频 | 高清免费在线视频 | 国产精品久久久久久久久久妇女 | 日本中文一级片 | 在线日韩中文 | 欧美韩国日本在线观看 | 这里有精品在线视频 | 国产精品入口麻豆www | 激情综合色综合久久 | 久久精品直播 | 亚洲精品久久久久999中文字幕 | 日韩久久视频 | 操操操综合 | 日韩免费大片 | 国产精品第二十页 | 成人一区不卡 | 制服丝袜成人在线 | 中文字幕在线观看三区 | 久久激情五月丁香伊人 | 五月天久久久久久 | 久久免费在线观看视频 | www.av免费 | 在线免费观看视频一区二区三区 | 精品国产综合区久久久久久 | 久久久激情视频 | 欧美亚洲xxx | 在线观看中文 | 成人黄色av网站 | av电影av在线 | 国产成人精品综合久久久 | 视频在线观看一区 | 国产成人av电影 | 婷婷伊人五月 | 99九九热只有国产精品 | 人人澡人摸人人添学生av | 深夜免费福利在线 | 国产一级在线免费观看 | 国产精品免费在线 | 婷婷丁香导航 | 99热最新精品 | 一区二区三区在线播放 | 国产99久久久精品 | 婷婷天天色 | 午夜免费久久看 | 久久理论电影网 | 东方av在 | 日韩理论视频 | 久久久久国产精品一区 | 精品国产一区二区三区久久 | 欧美作爱视频 | 中文字幕视频播放 | 91精品小视频| 成人免费网视频 | 天堂av免费 | 国内揄拍国内精品 | 免费在线色电影 | 国产成人精品一区二区三区网站观看 | 免费观看视频的网站 | 麻豆影音先锋 | 黄色资源网站 | 91精品网站在线观看 | 综合色中色 | 在线黄色国产电影 | 香蕉视频免费在线播放 | 天天伊人狠狠 | 视频一区二区在线 | 国产区网址 | 久久精品国亚洲 | 免费看片成人 | 国产午夜免费视频 | 日韩免费在线观看网站 | 69精品视频 | 国产成人精品一区二区三区网站观看 | 亚洲 欧美 精品 | 日韩精品视频在线免费观看 | 成人a级网站 | 久久成人午夜 | 在线国产观看 | 国产黄在线观看 | 日韩久久电影 | 久在线 | 久久视频免费 | 精品久久影院 | 亚洲一级在线观看 | 在线国产视频观看 | 8090yy亚洲精品久久 | 色美女在线 | 色综合色综合色综合 | 在线日韩视频 | 国产精品美女久久久久久久久 | 久久精品一区二区三区中文字幕 | 欧美精品久久 | 久久久久久久久影院 | 亚洲美女免费精品视频在线观看 | 亚洲国产成人在线播放 | 精品久久一区 | 日韩在线视频在线观看 | 91视频免费 | 免费看日韩片 | 大型av综合网站 | 手机av片| 中日韩免费视频 | 亚洲精品观看 | 国产精品成人免费精品自在线观看 | 中文字幕日韩高清 | 激情欧美丁香 | 婷婷中文字幕在线观看 | 国产成人91 | 日韩爱爱网站 | 久久久蜜桃一区二区 | 97久久精品午夜一区二区 | 欧美激情第十页 | 91精品国产91热久久久做人人 | 欧美日韩一级视频 | 美女视频黄频大全免费 | 日韩高清免费电影 | 久久99精品久久久久久秒播蜜臀 | 在线观看91视频 | 亚洲欧美视频在线播放 | 99久久电影 | 免费网站看v片在线a | 国产成人一区二区三区在线观看 | 能在线观看的日韩av | 国产日韩欧美网站 | 精品久久毛片 | 在线欧美a | 国产又粗又硬又长又爽的视频 | 美女黄网站视频免费 | 免费人成在线观看网站 | 欧美男男激情videos | 97视频在线免费 | 精品久久久成人 | 成人va视频 | 深爱激情站 | 日韩欧美在线免费观看 | 国产精品久久久久久久电影 | 免费手机黄色网址 | 国产一二三四在线视频 | 久草在线视频首页 | 国产精品视频地址 | 日韩午夜大片 | 国产第一福利 | 午夜国产一区二区三区四区 | 亚洲在线精品视频 | 成人蜜桃网 | 手机看片久久 | 成人理论电影 | 操老逼免费视频 | 一级理论片在线观看 | 久草五月 | 在线黄色免费 | a黄色| 亚洲成a人片77777kkkk1在线观看 | a黄色一级片 | 国产不卡网站 | 夜又临在线观看 | 午夜精品一二三区 | 欧美日本在线观看视频 | 在线视频 91 | 三级av在线 | 啪啪肉肉污av国网站 | 中文字幕一区二区在线播放 | 亚州欧美精品 | 最近中文字幕高清字幕免费mv | 婷婷久久精品 | 久久99国产综合精品 | 久草在线最新免费 | 久久精品国产v日韩v亚洲 | 亚洲一区网站 | 91漂亮少妇露脸在线播放 | 91久久爱热色涩涩 | 五月天电影免费在线观看一区 | 最近日本mv字幕免费观看 | 91av资源网 | 久久久穴 | 五月婷婷综合激情网 | 国产一区二区在线观看视频 | 国产精品一区二 | 丁香五婷 | 婷婷伊人综合亚洲综合网 | 色综合综合 | 国产精品videossex国产高清 | 麻豆91在线 | 免费观看完整版无人区 | 超碰在线98 | 日批视频国产 | 国产在线观看网站 | 国产xx在线| 国产小视频在线免费观看 | 亚洲视频在线观看 | 亚洲一区二区三区毛片 | 国内精品久久久久久久影视简单 | 激情视频区 | 国产性天天综合网 | 亚洲天天干 | www.狠狠操.com | 久久精品电影网 | 91看片看淫黄大片 | 欧美精品久久久久久久久久白贞 | 国产精品久久网站 | 青青河边草免费 | 国产999精品久久久久久 | 69性欧美| 成人毛片一区 | 美女免费电影 | 国产九九在线 | 久久精品精品 | 三级黄色片在线观看 | 91精品视频免费看 | .国产精品成人自产拍在线观看6 | 人人超在线公开视频 | 亚洲精品视频一 | 久久超级碰视频 | 日韩一级理论片 | 9i看片成人免费看片 | 国产一区二区视频在线播放 | 夜夜躁天天躁很躁波 | 天天色综合1 | 国产视频97 | 精品99久久 | 人人爽人人澡 | 国产视频一区精品 | 一区二区中文字幕在线 | 91传媒在线观看 | 人人爽久久久噜噜噜电影 | 精品国产一区二区三区久久影院 | 国产一级免费在线观看 | 狠狠干中文字幕 | 国产69精品久久久久久 | 久久久精品 | 久久五月网 | 日韩精品网址 | 国产精品永久久久久久久久久 | 美女网站视频免费黄 | 精品字幕在线 | 开心激情五月网 | 香蕉视频在线看 | 九九精品视频在线看 | 久久a v视频 | 在线视频观看亚洲 | 啪嗒啪嗒免费观看完整版 | avcom在线| 久久夜夜操 | 97碰在线视频 | 国产精品成人免费精品自在线观看 | 91网站观看 | 成人av免费网站 | 中文在线中文a | 综合久久精品 | 高清av免费看 | 久黄色| 97爱| 亚洲国产wwwccc36天堂 | 欧美性成人 | 91夫妻自拍 | 色在线网| 久久精品久久99精品久久 | 一区二区三区在线影院 | 午夜少妇一区二区三区 | 黄色午夜网站 | 亚洲日b视频 | 精品一区二区三区电影 | 一区二区三区在线视频111 | 国内精品久久久久久中文字幕 | 99热精品久久 | 最新日本中文字幕 | 久久99久久99精品免费看小说 | 欧美一二三四在线 | 天天操天天操 | 亚洲桃花综合 | 五月婷婷激情网 | 久久国产亚洲精品 | 亚洲最大av在线播放 | 91探花系列在线播放 | 久久99精品久久久久久三级 | 在线观看视频免费大全 | 天天色综合三 | 中文字幕在线日亚洲9 | 免费观看黄色12片一级视频 | 久久99久久99精品中文字幕 | 亚洲成年人av | 中文字字幕在线 | 亚洲精品国产第一综合99久久 | 国产精品99久久久久 | 亚洲一区动漫 | 天天干天天想 | 免费99精品国产自在在线 | 久热色超碰 | 日本护士三级少妇三级999 | 美女黄网久久 | 久久小视频 | 国产高清中文字幕 | 婷婷久久综合网 | 伊人久久在线观看 | 99热手机在线 | 特级毛片爽www免费版 | 顶级bbw搡bbbb搡bbbb| 成人在线黄色 | 黄色a一级视频 | 中文字幕色在线视频 | 欧美精品乱码99久久影院 | 国产99在线免费 | 91桃色免费观看 | 99精品一区 | 人人澡超碰碰97碰碰碰软件 | 四虎国产精品免费观看视频优播 | www日韩精品 | 99久久一区| 免费看的视频 | 欧美热久久 | 99久久99久久精品国产片果冰 | 亚洲无人区小视频 | 日韩av视屏在线观看 | 国产精品成人在线观看 | 久久国产精品99久久久久 | 久久精品这里都是精品 | 亚洲精品中文字幕视频 | 国产精品久久久久aaaa九色 | 日韩在线视频精品 | 日韩伦理片hd | 一区二区三区精品在线视频 | 日韩专区一区二区 | 色综合久久久久综合体桃花网 | 亚洲色图22p | 99免费观看视频 | 久久99中文字幕 | 日韩精品中文字幕久久臀 | 91探花国产综合在线精品 | 国产资源免费在线观看 | 婷婷成人亚洲综合国产xv88 | 夜夜躁日日躁狠狠躁 | 天天操操| 国产乱码精品一区二区蜜臀 | 美女视频国产 | 91黄色小视频 | 天天激情综合网 | 日韩av一区二区三区四区 | 久章草在线观看 | 欧美a级成人淫片免费看 | 日韩视频www | 精品女同一区二区三区在线观看 | 国内三级在线观看 | 96视频免费在线观看 | 久草香蕉在线 | 精品久久一区二区 | www.av免费| 国产高清中文字幕 | 久久久免费毛片 | www.久久com | 欧美少妇的秘密 | 四虎在线视频 | 男女免费av | 国产中文字幕视频在线观看 | 精品国产伦一区二区三区免费 | 婷婷狠狠操 | 九九视频精品免费 | 99视频在线免费 | 波多野结衣视频在线 | 国内免费久久久久久久久久久 | 国产在线 一区二区三区 | 69国产成人综合久久精品欧美 | 国产原创在线观看 | 亚洲aⅴ乱码精品成人区 | 亚洲成年人在线播放 | 国产人成在线观看 | 日韩精品视频免费在线观看 | 欧美日韩久久不卡 | 午夜av在线 | 国产丝袜网站 | 91欧美视频网站 | 久久少妇av | 亚洲伦理中文字幕 | 国产一级在线观看视频 | 黄色网址国产 | 免费日韩一区二区三区 | 天天av天天 | 啪啪精品 | 久久精品一级片 | 亚洲午夜不卡 | 精品视频999 | 天天爽天天搞 | 最近免费在线观看 | 国产91精品在线观看 | 久久国产免 | 国产高清视频色在线www | 蜜桃av人人夜夜澡人人爽 | 99这里只有精品视频 | 97视频在线 | 国内精品久久天天躁人人爽 | 成人高清av在线 | 久久99精品国产麻豆宅宅 | 久久综合成人网 | 国产午夜不卡 | 99视频导航 | 亚洲aⅴ在线观看 | 中文在线www | 国际精品久久久久 | 免费黄色激情视频 | 亚洲天天摸日日摸天天欢 | 一区二区三区高清在线观看 | 蜜臀av性久久久久蜜臀aⅴ涩爱 | 免费色视频网站 | 国产在线播放不卡 | 亚洲.www | 国内精品久久久久久久影视简单 | 精品亚洲午夜久久久久91 | 国产精品大片在线观看 | 伊人激情网 | 国产99久久 | 色噜噜噜噜 | 免费在线精品视频 | 国产乱对白刺激视频在线观看女王 | 美女视频免费精品 | 日韩网站免费观看 | 国产视频丨精品|在线观看 国产精品久久久久久久久久久久午夜 | 五月婷婷色 | 不卡国产视频 | 精品久久久久久久久久国产 | 日韩啪啪小视频 | 天天干天天拍天天操天天拍 | 免费看成人片 | 国产精品99久久免费黑人 | www.日本色| 日日插日日干 | 成 人 黄 色 免费播放 | 特级黄色一级 | 国产1区在线 | 国产日韩欧美在线观看视频 | 久久久久看片 | 午夜美女影院 | 亚洲精品国产精品国自产观看 | 天天超碰 | 日韩中文字幕在线不卡 | 国产精品婷婷 | 夜夜高潮夜夜爽国产伦精品 | 中文字幕在线观看视频一区二区三区 | 欧美日韩超碰 | 亚洲成人二区 | 国产精品亚洲综合久久 | 香蕉视频啪啪 | 国产成人精品久久二区二区 | 国产黄大片在线观看 | 中文字幕在线国产 | 国产欧美在线一区二区三区 | 中文字幕在线观看视频免费 | 九色激情网 | 国产精品白虎 | 国产午夜精品在线 | 国产精品99精品久久免费 | 超碰av在线 | 黄色一级大片在线观看 | 91九色视频国产 | 美女视频黄免费的 | 黄色国产在线观看 | 视频福利在线 | 午夜性福利 | 日韩精品一区二区三区在线视频 | 精品少妇一区二区三区在线 | 久久精品爱爱视频 | 国产一级性生活视频 | 亚洲最新视频在线 | 一本一本久久a久久精品牛牛影视 | 久久精品女人毛片国产 | 天天综合网入口 | 国产欧美高清 | 三级a视频 | 午夜骚影 | 黄色不卡av | 天干啦夜天干天干在线线 | 久久影院中文字幕 | 中文国产字幕 | 00av视频| 97精品超碰一区二区三区 | 日韩av影视 | 国产亚洲成av人片在线观看桃 | 国产一级一级国产 | 超碰人人舔 | 成人免费在线观看入口 | 久久精品视频日本 | 97色综合| 久久久久国产精品厨房 | 中文字幕免费看 | 懂色av一区二区在线播放 | 亚洲国产操 | 激情久久五月 | 美女免费视频网站 | 欧美在线视频免费 | 欧美视频xxx| 亚洲精品国产欧美在线观看 | 久久久久国产精品午夜一区 | 欧美精品在线观看一区 | 亚洲第一中文字幕 | 久久99热这里只有精品国产 | 久久在线观看 | 99热9 | 国产最新在线视频 | 2023亚洲精品国偷拍自产在线 | 狠狠色丁香 | 在线观看一级片 | 国色天香av| 成年人在线播放视频 | 一区二区三区免费在线观看视频 | 国产成人三级在线 | 成人av在线网址 | 亚洲精品色婷婷 | 全久久久久久久久久久电影 | 亚洲综合激情小说 | 色婷婷狠狠干 | 在线视频 国产 日韩 | 99视频在线精品免费观看2 | 人人模人人爽 | 欧美国产亚洲精品久久久8v | 久久无码精品一区二区三区 | 国产一区免费在线观看 | 99操视频| 五月开心婷婷 | 日韩一级电影网站 | 午夜精品视频在线 | 高清美女视频 | 在线欧美最极品的av | 色天天综合网 | 特级aaa毛片 | 欧美黑人性爽 | 国产粉嫩在线观看 | 婷婷久久网站 | 欧美另类v| 日日夜夜狠狠 | 久久久精品免费观看 | 国产视频观看 | 亚洲精品国产高清 | 久草视频在线资源站 | 国产午夜三级一二三区 | 一级黄色片在线 | 久久久久久精 | 久久蜜臀av | 国产一区二区三区免费观看视频 | 久久久久久久久久网站 | 香蕉久草 | 久操久| 四虎5151久久欧美毛片 | 欧美激情第八页 | 三级av中文字幕 | 综合网婷婷| 韩日av在线 | 五月激情视频 | 国产成人精品女人久久久 | 久久精品激情 | 国产亚洲片 | 97国产精品亚洲精品 | 欧美 亚洲 另类 激情 另类 | 色瓜 | 日本中文字幕网站 | 一区二区三区在线免费播放 | 天天操综合网站 | 免费网站v| 久久精品首页 | 亚洲日本激情 | 亚洲电影网站 | 亚洲少妇xxxx | 国产精品永久久久久久久久久 | 在线观看视频一区二区三区 | 精品网站999www | 欧美一区二区三区在线看 | 三级黄色免费片 | 精品美女在线视频 | 日本久久视频 | 日本中文字幕电影在线免费观看 | 在线观看视频色 | 一区二区三区污 | 黄色在线免费观看网站 | 在线免费三级 | 中文字幕av在线电影 | 手机看片午夜 | 中文字幕成人 | 在线免费亚洲 | 久精品在线 | 久久综合免费视频 | 激情深爱| 一区二区三区免费 | av成人免费| av在线看片 | 婷婷六月丁香激情 | 中文字幕频道 | 美女搞黄国产视频网站 | 久久综合免费视频影院 | 亚洲国产精品一区二区尤物区 | 中文av影院 | 一级特黄aaa大片在线观看 | 国产视频一二三 | 国内精品久久久久影院优 | 日日夜夜天天操 | 国产成人精品一区二区三区免费 | 免费在线播放黄色 | 国产精品久久久久国产a级 激情综合中文娱乐网 | 在线播放国产一区二区三区 | 黄色精品国产 | 国内精品久久久久影院一蜜桃 | 中文字幕乱码一区二区 | 午夜黄色影院 | 成人av电影免费观看 | 91手机电影 | 在线观av | 97在线观看免费视频 | 精品视频成人 | 91九色自拍| 探花在线观看 | 国产高清久久久 | 日日干干夜夜 | 亚洲一级免费电影 | 韩日色视频| 黄色片亚洲 | 91精品区 | 麻豆91在线观看 | 国精产品999国精产品岳 | 亚洲国产97在线精品一区 | 亚洲 欧美 另类人妖 | 国产精品18久久久久vr手机版特色 | 黄色字幕网 | 国内精品久久久久久久久 | 久久久免费观看完整版 | 91网站免费观看 | 97超碰人人干| 色99视频 | 午夜精品视频免费在线观看 | 亚洲视频 一区 | 狠狠躁夜夜躁人人爽视频 | 亚洲视频免费在线 | 午夜久久电影网 | 五月婷婷综合在线 | 在线视频福利 | 91精品国产乱码久久桃 | 成人四虎影院 | 香蕉视频国产在线 | 日韩色在线观看 | 不卡中文字幕av | 中文字幕在线观看免费高清电影 | 国产999在线 | 国产高清中文字幕 | 婷婷激情av | 91黄色小视频 | 日韩av成人免费看 | 国产成人一区二区精品非洲 | 日韩久久精品一区二区三区下载 | 亚洲成人网av | 狠狠色丁香婷婷综合最新地址 | 日韩成年视频 | 中文字幕在线观看视频一区 | 亚洲在线精品视频 | 97视频在线观看播放 | 亚洲视频高清 | 国产视频黄 | 波多野结衣精品在线 | 探花视频免费观看 | 91av中文| 日韩在线理论 | 人人草在线视频 | 超碰97人人干| 亚洲精品国精品久久99热 | 99视频久| 日本性久久 | 麻豆精品国产传媒 | 亚洲一区久久久 | 毛片播放网站 | 久久高清国产 | 久久国产精品99久久久久久老狼 | 国产在线欧美 | 亚洲日本va午夜在线影院 | 国产精品入口传媒 | 在线播放一区二区三区 | 奇米影视777四色米奇影院 | 亚洲日韩中文字幕 | 91精品亚洲影视在线观看 | 国产福利一区二区三区视频 | 日韩高清片 | 九九热在线精品 | 欧美视屏一区二区 | av在线播放网址 | 久久久免费看片 | 激情综合网在线观看 | 国产一区二区三区免费在线 | 国产精品va在线 | 999电影免费在线观看 | 欧美激情视频一区 | 欧美一级片免费播放 | 精品一区二区三区四区在线 | 亚洲午夜精品在线观看 | 在线观看久久 | 日日碰狠狠躁久久躁综合网 | 亚洲毛片一区二区三区 | 精品久久久久久国产91 | 亚洲欧美视频在线播放 | 97精品国产97久久久久久久久久久久 | 欧美精品久久久久 | 黄色福利网站 | 99久久精品久久久久久清纯 | 精品一区二区在线观看 | 国产精品视频999 | www.国产毛片 | 色婷婷五 | 中文一区二区三区在线观看 | 激情综合五月网 | 国产一级片免费观看 | 国产国产人免费人成免费视频 | 亚洲激精日韩激精欧美精品 | 国产在线欧美在线 | 久草精品视频 | 免费看污污视频的网站 | 免费日韩视 | 国产精品一区在线观看 | 久久精品国产第一区二区三区 | 中文字幕欧美日韩va免费视频 | 欧美日韩精品电影 | 黄色片网站av | 国产1区在线观看 | 国产免费一区二区三区最新6 | 99精品一区二区三区 | 国产精品夜夜夜一区二区三区尤 | 欧美日韩不卡在线视频 | 中文字幕999 | 色资源在线| 久久久久久久久久久高潮一区二区 | 中文字幕在线观看一区二区 | 久草在线中文视频 | 亚洲黄色小说网址 | 国精产品一二三线999 | 国产成人久久 | 国产在线精品一区二区不卡了 | 婷婷中文字幕 | 91视频电影 | 69亚洲精品 | 日韩视频一二三区 | 九九九毛片 | 久久人人爽爽人人爽人人片av | 日韩乱色精品一区二区 | 久久综合九色综合欧美狠狠 | 人人爱人人舔 | 欧美精品亚洲精品 | 天天狠狠操 | 97碰在线视频 | 亚洲欧美成人在线 | 精品国产1区2区 | 91视频在线观看免费 | 97超碰人人网 | 国产精品一区免费看8c0m | 欧美久久影院 | 一区二区视频在线播放 | 日韩av中文在线观看 | 中文字幕91在线 | 中文字幕在线成人 | 成年人免费电影在线观看 | 日日精品 | 亚洲国产大片 | 九九综合在线 | www.色午夜.com | 热热热热热色 | 在线视频1卡二卡三卡 | 色婷婷综合五月 | 激情av网| 四虎国产视频 | 精品欧美一区二区精品久久 | 日韩欧美精品在线观看视频 | 在线免费观看av网站 | 久久一区二区三区日韩 | 久久免费在线观看视频 | 99精品视频在线免费观看 | 伊人首页 | 国产精品视频久久 | 久久久精品| 久久无码精品一区二区三区 | 天天天色综合a | 欧美午夜激情网 | 欧美日韩视频在线一区 | 久久蜜桃av | 免费看片日韩 | 美女中文字幕 | 91精品久久久久久久久久入口 | 91高清视频免费 | 亚洲 成人 欧美 | 激情久久久久 | 日韩高清在线一区二区 |