日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Apache Kylin从入门到精通

發布時間:2024/8/23 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Apache Kylin从入门到精通 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Kylin

文章目錄

  • Kylin
    • 一、概述
      • 1.1 Kylin定義
      • 1.2 Kylin架構
      • 1.3 Kylin特點
      • 1.4 Apache Kylin4 概述
        • 為什么選擇 Parquet 替換 HBase?
        • 預計算結果在 Kylin4.0 中如何存儲?
        • Kylin 4.0 的構建引擎
        • Kylin 4.0 的查詢引擎
        • Kylin 4.0 與 Kylin 3.1 功能對比
        • Kylin 4.0 性能表現
        • 如何升級
        • Kylin 4.0 查詢和構建調優
        • Kylin 4.0 用戶案例
    • 二、Kylin環境搭建(4.x)
      • 軟件要求
      • 硬件要求
      • Hadoop 環境
      • Kylin 安裝
      • 提前準備
      • Web頁面介紹
        • 支持的瀏覽器
        • 登錄系統
        • 創建工程
        • 選擇數據源
        • 創建Model
        • 創建Cube
        • Cube構建與監控
        • WEB UI查詢SQL
    • 三、SSB數據實際測試
        • 生成SBB基準測試數據
        • Mysql查詢、Hive查詢、Kylin查詢對比
    • 四、Kylin使用注意事項
        • 只能按照構建Model的連接條件寫SQL查詢
        • 只能按照構建 Cube 時選擇的維度字段分組統計
        • 只能統計構建Cube 時選擇的度量值字段
    • 五、Kylin每日自動構建Cube
    • 六、BI工具集成
      • JDBC
      • Zepplin
        • 安裝與啟動
        • 訪問
        • 配置Kylin
        • 使用Zepplin查詢Kylin

一、概述

1.1 Kylin定義

? Apache Kylin?是一個開源的、分布式的分析型數據倉庫,提供Hadoop/Spark 之上的 SQL 查詢接口及多維分析(OLAP)能力以支持超大規模數據,最初由 eBay 開發并貢獻至開源社區。它能在亞秒內查詢巨大的表。

1.2 Kylin架構

  • REST Service

    ? REST Server 是一套面向應用程序開發的入口點,旨在實現針對 Kylin 平臺的應用開發

    工作。 此類應用程序可以提供查詢、獲取結果、觸發 cube 構建任務、獲取元數據以及獲取

    用戶權限等等。另外可以通過 Restful 接口實現 SQL 查詢。

  • 查詢引擎(Query Engine)

    ? 當 cube 準備就緒后,查詢引擎就能夠獲取并解析用戶查詢。它隨后會與系統中的其它

    組件進行交互,從而向用戶返回對應的結果。

  • 路由器(Routing)

    ? 在最初設計時曾考慮過將 Kylin 不能執行的查詢引導去 Hive 中繼續執行,但在實踐后

    發現 Hive 與 Kylin 的速度差異過大,導致用戶無法對查詢的速度有一致的期望,很可能大

    多數查詢幾秒內就返回結果了,而有些查詢則要等幾分鐘到幾十分鐘,因此體驗非常糟糕。

    最后這個路由功能在發行版中默認關閉。

  • 元數據管理工具(Metadata)

    ? Kylin 是一款元數據驅動型應用程序。元數據管理工具是一大關鍵性組件,用于對保存

    在 Kylin 當中的所有元數據進行管理,其中包括最為重要的 cube 元數據。其它全部組件的

    正常運作都需以元數據管理工具為基礎。 Kylin 的元數據存儲在 hbase (3.x版本)中。

  • 任務引擎(Cube Build Engine)

    ? 這套引擎的設計目的在于處理所有離線任務,其中包括 shell 腳本、Java API 以及 Map

    Reduce 任務等等。任務引擎對 Kylin 當中的全部任務加以管理與協調,從而確保每一項任務

    都能得到切實執行并解決其間出現的故障。

  • 1.3 Kylin特點

    ? Kylin 的主要特點包括支持 SQL 接口、支持超大規模數據集、亞秒級響應、可伸縮性、

    高吞吐率、BI 工具集成等。

  • 標準 SQL 接口:Kylin 是以標準的 SQL 作為對外服務的接口。

  • 支持超大數據集:Kylin 對于大數據的支撐能力可能是目前所有技術中最為領先的。

    早在 2015 年 eBay 的生產環境中就能支持百億記錄的秒級查詢,之后在移動的應用場景中

    又有了千億記錄秒級查詢的案例。

  • 亞秒級響應:Kylin 擁有優異的查詢相應速度,這點得益于預計算,很多復雜的計算,

    比如連接、聚合,在離線的預計算過程中就已經完成,這大大降低了查詢時刻所需的計算量,

    提高了響應速度。

  • 可伸縮性和高吞吐率:單節點 Kylin 可實現每秒 70 個查詢,還可以搭建 Kylin 的集

    群。

  • BI 工具集成:

    Kylin 可以與現有的 BI 工具集成,具體包括如下內容。

    ODBC:與 Tableau、Excel、PowerBI 等工具集成

    JDBC:與 Saiku、BIRT 等 Java 工具集成

    RestAPI:與 JavaScript、Web 網頁集成

    Kylin 開發團隊還貢獻了 Zepplin 的插件,也可以使用 Zepplin 來訪問 Kylin 服務。

  • 1.4 Apache Kylin4 概述

    ? Apache Kylin?是一個開源的、分布式的分析型數據倉庫,提供 Hadoop 之上的 SQL 查詢接口及多維分析(OLAP)能力以支持超大規模數據,最初由eBay Inc.開發并貢獻至開源社區。

    ? Apache Kylin4.0 是 Apache Kylin3.x 之后一次重大的版本更新,它采用了全新的 Spark 構建引擎和 Parquet 作為存儲,同時使用 Spark 作為查詢引擎。

    為了方便用戶對 Kylin4.x 有更全面更深層的了解,本篇文檔會著重從 Kylin4.x 與之前版本有何異同的角度對 Kylin4.x 做全面概述。文章分為以下幾個部分:

    • 為什么選擇 Parquet 替換 HBase
    • 預計算結果在 Kylin4.0 中如何存儲
    • Kylin 4.0 的構建引擎
    • Kylin 4.0 的查詢引擎
    • Kylin4.0 與 Kylin3.1 功能對比
    • Kylin 4.0 性能表現
    • Kylin 4.0 查詢和構建調優
    • Kylin 4.0 用戶案例

    為什么選擇 Parquet 替換 HBase?

    ? 在 3.x 以及之前的版本中,kylin 一直使用 HBase 作為存儲引擎來保存 cube 構建后產生的預計算結果。HBase 作為 HDFS 之上面向列族的數據庫,查詢表現已經算是比較優秀,但是它仍然存在以下幾個缺點:

  • HBase 不是真正的列式存儲;

    HBase表數據模型比較特別,也可以簡單理解為有行和列的二維表,只是它的列稱為“列族”,列族下面又可以在數據寫入時指定很多的子列。另外,HBase物理存儲上是將整個列族數據存儲在一起的。所以,如果HBase中的一張表只有一個列族的話,等于是這個列族包含了這張表的所有列,也就是將表正行的數據連續存儲在了一起,就等于是行式存儲了。再比如,一張表有多個列族,并且每個列族下僅有一列(雖然HBase不建議這么做),也就是將表的列數據連續存儲在了一起,就等于是列式存儲了。

  • HBase 沒有二級索引,Rowkey 是它唯一的索引;

  • HBase 沒有對存儲的數據進行編碼,kylin 必須自己進行對數據編碼的過程;

  • HBase 不適合云上部署和自動伸縮;

  • HBase 不同版本之間的 API 版本不同,存在兼容性問題(比如,0.98,1.0,1.1,2.0);

  • HBase 存在不同的供應商版本,他們之間有兼容性問題。

  • ?

    針對以上問題,社區提出了對使用 Apache Parquet + Spark 來代替 HBase 的提議,理由如下:

  • Parquet 是一種開源并且已經成熟穩定的列式存儲格式;
  • Parquet 對云更加友好,可以兼容各種文件系統,包括 HDFS、S3、Azure Blob store、Ali OSS 等
  • Parquet 可以很好地與 Hadoop、Hive、Spark、Impala 等集成;
  • Parquet 支持自定義索引。
  • 預計算結果在 Kylin4.0 中如何存儲?

    ? 在 Kylin4.x 中,預計算結果以 Parquet 格式存儲在文件系統中,文件存儲結構對于 I/O 優化很重要,提前對存儲目錄結構進行設計,就能夠在查詢時通過目錄或者文件名過濾數據文件,避免不必要的掃描。

    Kylin4 對 cube 進行構建得到的預計算結果的 Parquet 文件在文件系統中存儲的目錄結構如下:

    - cube_name - SegmentA - Cuboid-111 - part-0000-XXX.snappy.parquet - part-0001-XXX.snappy.parquet - … - Cuboid-222 - part-0000-XXX.snappy.parquet - part-0001-XXX.snappy.parquet - … - SegmentB - Cuboid-111 - part-0000-XXX.snappy.parquet - part-0001-XXX.snappy.parquet - … - Cuboid-222 - part-0000-XXX.snappy.parquet - part-0001-XXX.snappy.parquet - …

    可以看出,與 HBase 相比,采用 Parquet 存儲可以很方便地增刪 cuboid 而不影響其他數據。利用這種特點,Kylin4 中實現了支持用戶手動增刪 cuboid 的功能,請參考:How to update cuboid list for a cube

    Kylin 4.0 的構建引擎

    在 Kylin4 中,Spark Engine 是唯一的構建引擎,與之前版本中的構建引擎相比,存在如下特點:

  • Kylin4 的構建簡化了很多步驟。比如在 Cube Build Job 中, kylin4 只需要資源探測和 cubing 兩個步驟,就可以完成構建;
  • 由于 Parquet 會對存儲的數據進行編碼,所以在 kylin4 中不再需要維度字典和對維度列編碼的過程;
  • Kylin4 對全局字典做了全新的實現,更多細節請參考:Kylin4 全局字典 ;
  • Kylin4 會根據集群資源、構建任務情況等對 Spark 進行自動調參;
  • Kylin4 提高了構建速度。
  • 用戶可以通過 kylin.build.spark-conf 開頭的配置項手動修改構建相關的 Spark 配置,經過用戶手動修改的 Spark 配置項不會再參與自動調參。

    Kylin 4.0 的查詢引擎

    Kylin4 的查詢引擎 Sparder(SparderContext) 是由 spark application 后端實現的新型分布式查詢引擎,相比于原來的查詢引擎,Sparder 的優勢體現在以下幾點:
    - 分布式的查詢引擎,有效避免單點故障;
    - 與構建所使用的計算引擎統一為 Spark;
    - 對于復雜查詢的性能有很大提高;
    - 可以從 Spark 的新功能及其生態中獲益。

    在 Kylin4 中,Sparder 是作為一個 long-running 的 spark application 存在的。 Sparder 會根據 kylin.query.spark-conf 開頭的配置項中配置的 Spark 參數來獲取 Yarn 資源,如果配置的資源參數過大,可能會影響構建任務甚至無法成功啟動 Sparder,如果 Sparder 沒有成功啟動,則所有查詢任務都會失敗,用戶可以在 kylin WebUI 的 System 頁面中檢查 Sparder 狀態。

    默認情況下,用于查詢的 spark 參數會設置的比較小,在生產環境中,大家可以適當把這些參數調大一些,以提升查詢性能。
    kylin.query.auto-sparder-context 參數用于控制是否在啟動 kylin 的同時啟動 Sparder,默認值為 false,即默認情況下會在執行第一條 SQL 的時候才啟動 Sparder,由于這個原因,執行第一條 SQL 的時候的會花費較長時間。
    如果你不希望第一條 SQL 的查詢速度低于預期,可以設置 kylin.query.auto-sparder-context 為 true,此時 Sparder 會隨 Kylin 一起啟動。

    Kylin 4.0 與 Kylin 3.1 功能對比

    FeatureKylin 3.1.0Kylin 4.0
    StorageHBaseParquet
    BuildEngineMapReduce/Spark/FlinkNew Spark Engine
    MetastoreHBase(Default)/MysqlMysql(Default)
    DataSourceKafka/Hive/JDBCHive/CSV
    Global DictionaryTwo implementationNew implementation
    Cube Optimization ToolCube PlannerCube Planner phase1 and Optimize cube manually
    Self-monitoringSystem cube and DashboardSystem cube and Dashboard
    PushDown EngineHive/JDBCSpark SQL
    Hadoop platformHDP2/HDP3/CDH5/CDH6/EMR5HDP2/CDH5/CDH6/EMR5/EMR6/HDI
    Deployment modeSingle node/Cluster/Read and write separationSingle node/Cluster/Read and write separation

    Kylin 4.0 性能表現

    為了測試 Kylin4.0 的性能,我們分別在 SSB 數據集和 TPC-H 數據集上做了 benchmark,與 Kylin3.1.0 進行對比。測試環境為 4 個節點的 CDH 集群,所使用的 yarn 隊列分配了 400G 內存和 128 cpu cores。

    SSB(Star Schema Benchmark)是麻省州立大學波士頓校區的研究人員定義的基于現實商業應用的數據模型,用來評價決策支持技術方面應用的性能。

    TPC-H是由TPC(Transaction Processing Performance Council)事務處理性能委員會公布的一套針對數據庫決策支持能力的測試基準,通過模擬數據庫中與業務相關的復雜查詢考察數據庫的綜合處理能力,獲取數據庫操作的響應時間。

    TPCH基準模型中定義了一個數據庫模型,容量可以在1GB~10000GB的8個級別中進行選擇。數據庫模型包括CUSTOMER、LINEITEM、NATION、ORDERS、PART、PARTSUPP、REGION和SUPPLIER 共8張數據表,以及22條SQL查詢語句,涉及內容廣泛豐富,可以較完整地測試數據庫的運算性能。

    TPCH的SQL中不乏一些多層嵌套的復雜查詢,執行性能較差。對于這些查詢,如果能采用更合理的存儲方案,設計低復雜度算法并配合并行等手段,將獲得更優的性能。但遺憾的是,由于理論體系的限制,很多想法無法用SQL實現,而SQL程序員也因此不關注這些性能優化方法,經常只能忍受數據庫的低速運算。

    TPC-H 下載:https://github.com/gregrahn/

    性能測試對比結果如下:
    Comparison of build duration and result size(SSB)

    測試結果可以體現以下兩點:

    • kylin4 的構建速度與 kylin3.1.0 的 Spark Engine 相比有明顯提升;
    • Kylin4 構建后得到的預計算結果 Parquet 文件大小與 HBase 相比有明顯減小;

    Comparison of query response(SSB and TPC-H)

    ? 從查詢結果對比中可以看出,對于簡單查詢,kylin3 與 Kylin4 不相上下,kylin4 略有不足;而對于復雜查詢,kylin4 則體現出了明顯的優勢,查詢速度比 kylin3 快很多。
    ? 并且,Kylin4 中的簡單查詢的性能還存在很大的優化空間。在有贊使用 Kylin4 的實踐中,對于簡單查詢的性能可以優化到 1 秒以內。

    如何升級

    請參考文檔:How to migrate metadata to Kylin4

    Kylin 4.0 查詢和構建調優

    對于 Kylin4 的調優,請參考:How to improve cube building and query performance

    Kylin 4.0 用戶案例

    Why did Youzan choose Kylin4

    參考鏈接:
    Kylin Improvement Proposal 1: Parquet Storage

    二、Kylin環境搭建(4.x)

    軟件要求

    • Hadoop: cdh5.x, cdh6.x, hdp2.x, EMR5.x, EMR6.x, HDI4.x
    • Hive: 0.13 - 1.2.1+
    • Spark: 2.4.7/3.1.1
    • Mysql: 5.1.17 及以上
    • JDK: 1.8+
    • OS: Linux only, CentOS 6.5+ or Ubuntu 16.0.4+

    在 Hortonworks HDP2.4, Cloudera CDH 5.7 and 6.3.2, AWS EMR 5.31 and 6.0, Azure HDInsight 4.0 上測試通過。

    我們建議您使用集成的 sandbox 來試用 Kylin 或進行開發,比如 HDP sandbox,且要保證其有至少 10 GB 內存。在配置沙箱時,我們推薦您使用 Bridged Adapter 模型替代 NAT 模型。

    硬件要求

    ? 運行 Kylin 的服務器的最低配置為 4 core CPU,16 GB 內存和 100 GB 磁盤。 對于高負載的場景,建議使用 24 core CPU,64 GB 內存或更高的配置。

    Hadoop 環境

    ? Kylin 依賴于 Hadoop 集群處理大量的數據集。您需要準備一個配置好 HDFS, YARN, Hive, Zookeeper, Spark以及你可能需要的其他服務的 Hadoop 集群供 Kylin 運行。

    ? Kylin 可以在 Hadoop 集群的任意節點上啟動。方便起見,您可以在 master 節點上運行 Kylin。但為了更好的穩定性,我們建議您將 Kylin 部署在一個干凈的 Hadoop client 節點上,該節點上 Hive,HDFS 等命令行已安裝好且 client 配置(如 core-site.xml,hive-site.xml及其他)也已經合理的配置且其可以自動和其它節點同步。

    ? 運行 Kylin 的 Linux 賬戶要有訪問 Hadoop 集群的權限,包括創建/寫入 HDFS 文件夾,Hive 表的權限。

    Kylin 安裝

    安裝 Kylin 前需先部署好 Hadoop、Hive、Zookeeper、Hbase、Spark,并且需要在/etc/profile

    中配置以下環境變量 HADOOP_HOME,HIVE_HOME,HBASE_HOME,SPARK_HOME 記

    得 source 使其生效。

    在我們需要安裝的服務器執行以下操作:

  • 從 Apache Kylin下載網站 下載一個 Apache Kylin 4.0 的二進制文件。可通過如下命令行下載得到:

    cd /usr/local/ wget --no-check-certificate https://dlcdn.apache.org/kylin/apache-kylin-4.0.1/apache-kylin-4.0.1-bin-spark2.tar.gz
  • 解壓 tar 包,配置環境變量 $KYLIN_HOME 指向 Kylin 文件夾。

    tar -zxvf apache-kylin-4.0.1-bin-spark2.tar.gz mv apache-kylin-4.0.1-bin-spark2 kylin cd kylin export KYLIN_HOME=`pwd`
  • 使用腳本下載spark

    $KYLIN_HOME/bin/download-spark.sh

    download-spark.sh 腳本只能下載 spark2.4.7, 如果您使用的 kylin 二進制包以 spark3 為后綴,您需要從Spark 官方網站下載 spark3.1.1 的二進制包。

    建議將 spark 二進制包解壓后放置在 ${KYLIN_HOME} 目錄下,并重命名為 spark,以避免兼容性問題。詳情請查看:Refactor hive and hadoop dependency

    如果您自定義配置了 ${SPARK_HOME} 指向環境中的 spark2.4.7/spark3.1.1,請保證環境中的 spark 是可以正常提交以及執行任務的。

  • 配置 Mysql 元數據

    創建數據庫:kylin

    Kylin 4.0 使用 Mysql 作為元數據存儲,需要在 kylin.properties 中做如下配置:

    kylin.metadata.url=kylin_metadata@jdbc,driverClassName=com.mysql.jdbc.Driver,url=jdbc:mysql://192.168.60.10:3306/kylin,username=root,password=123456 kylin.env.zookeeper-connect-string=192.168.60.13

    你需要修改其中的 Mysql 用戶名和密碼,以及存儲元數據的 database 和 table。并將 mysql jdbc connector mysql-connector-java-5.1.49.jar放在 $KYLIN_HOME/ext 目錄下,沒有該目錄時請自行創建。
    請參考 配置 Mysql 為 Metastore 了解 Mysql 作為 Metastore 的詳細配置。

  • CDH6.x環境配置

    # 下載需要的jar包 wget https://cwiki.apache.org/confluence/download/attachments/173081375/hive-exec-1.21.2.3.1.0.0-78.jar?api=v2 wget https://repo1.maven.org/maven2/org/codehaus/woodstox/stax2-api/3.1.4/stax2-api-3.1.4.jar wget https://repo1.maven.org/maven2/commons-configuration/commons-configuration/1.10/commons-configuration-1.10.jar# 進入Kylin目錄 cd $KYLIN_HOME# 將準備的jar包放進目錄bin/hadoop3_jars/cdh6下 mkdir -p bin/hadoop3_jars/cdh6 mv hive-exec-1.21.2.3.1.0.0-78.jar stax2-api-3.1.4.jar commons-configuration-1.10.jar kylin/bin/hadoop3_jars/cdh6/# 將Mysql JDBC 驅動放入指定目錄 ext 下 mkdir $KYLIN_HOME/ext mv mysql-connector-java-5.7.33.jar $KYLIN_HOME/ext
  • 檢查運行環境

    Kylin 運行在 Hadoop 集群上,對各個組件的版本、訪問權限及 CLASSPATH 等都有一定的要求,為了避免遇到各種環境問題,您可以運行 $KYLIN_HOME/bin/check-env.sh 腳本來進行環境檢測,如果您的環境存在任何的問題,腳本將打印出詳細報錯信息。如果沒有報錯信息,代表您的環境適合 Kylin 運行。

    # 切換到HDFS用戶執行檢查 [hdfs@r-wb-15 bin]$ ./check-env.sh Retrieving hadoop conf dir... ...................................................[PASS] KYLIN_HOME is set to /home/kylin Checking hive ...................................................[PASS] Checking hadoop shell ...................................................[PASS] Checking hdfs working dir WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete. ...................................................[PASS] WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete. WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete. Checking environment finished successfully. To check again, run 'bin/check-env.sh' manually.
  • 啟動Kylin

    運行 $KYLIN_HOME/bin/kylin.sh start 腳本來啟動 Kylin,界面輸出如下:

    [hdfs@r-wb-15 kylin]$ bin/kylin.sh start Retrieving hadoop conf dir... ...................................................[PASS] KYLIN_HOME is set to /home/kylin Checking hive ...................................................[PASS] Checking hadoop shell ...................................................[PASS] Checking hdfs working dir WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete. ...................................................[PASS] WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete. WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete.Checking environment finished successfully. To check again, run 'bin/check-env.sh' manually. Retrieving hadoop conf dir... Retrieving Spark dependency... Start replace hadoop jars under /home/kylin/spark/jars. Find platform specific jars:/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop/client/hadoop-annotations-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop/client/hadoop-auth-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop/client/hadoop-common-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop/hadoop-annotations-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop/hadoop-common-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop/hadoop-auth-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-client.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-httpfs.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-native-client.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-native-client-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-httpfs-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-hdfs/hadoop-hdfs-client-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-client-app-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-client-core-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-client-jobclient-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-client-shuffle-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-client-common-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-yarn/hadoop-yarn-common-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-yarn/hadoop-yarn-api-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-yarn/hadoop-yarn-server-web-proxy-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-yarn/hadoop-yarn-client-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../hadoop-yarn/hadoop-yarn-server-common-3.0.0-cdh6.3.2.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/htrace-core4-4.2.0-incubating.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/htrace-core4-4.1.0-incubating.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/woodstox-core-5.0.3.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/woodstox-core-5.1.0.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/commons-configuration2-2.1.1.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/woodstox-core-asl-4.4.1.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/re2j-1.1.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/commons-configuration2-2.1.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/stax2-api-3.1.4.jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/../../jars/re2j-1.0.jar , will replace with these jars under /home/kylin/spark/jars. Copy jars from /home/kylin/bin/hadoop3_jars/cdh6 Done hadoop jars replacement under /home/kylin/spark/jars. (Not all processes could be identified, non-owned process infowill not be shown, you would have to be root to see it all.) Start to check whether we need to migrate acl tables Not HBase metadata. Skip check.A new Kylin instance is started by hdfs. To stop it, run 'kylin.sh stop' Check the log at /home/kylin/logs/kylin.log Web UI is at http://r-wb-15:7070/kylin

    啟動成功可以訪問頁面:http://r-wb-15:7070/kylin

    默認賬號密碼(注意大小寫區分):ADMIN/KYLIN

    訪問頁面提示以下頁面,說明啟動成功。

  • Kylin目錄結構·

    • bin: shell 腳本,用于啟動/停止 Kylin,備份/恢復 Kylin 元數據,以及一些檢查端口、獲取 Hive/HBase 依賴的方法等;
    • conf: Hadoop 任務的 XML 配置文件,這些文件的作用可參考配置頁面
    • lib: 供外面應用使用的 jar 文件,例如 Hadoop 任務 jar.
    • meta_backups: 執行 bin/metastore.sh backup 后的默認的備份目錄;
    • sample_cube 用于創建樣例 Cube 和表的文件。
    • spark: 使用kylin腳本下載得到的 spark。
    • tomcat: 自帶的 tomcat,用于啟動 Kylin 服務。
    • tool: 用于執行一些命令行的jar文件。
  • 使用 Kylin

    Kylin 啟動后您可以通過瀏覽器 http://<hostname>:7070/kylin 進行訪問。
    其中 <hostname> 為具體的機器名、IP 地址或域名,默認端口為 7070。
    初始用戶名和密碼是 ADMIN/KYLIN。
    服務器啟動后,您可以通過查看 $KYLIN_HOME/logs/kylin.log 獲得運行時日志。

  • 停止 Kylin

    運行 $KYLIN_HOME/bin/kylin.sh stop 腳本來停止 Kylin,界面輸出如下:

    Retrieving hadoop conf dir... KYLIN_HOME is set to /usr/local/apache-kylin-4.0.0-bin Stopping Kylin: 25964 Stopping in progress. Will check after 2 secs again... Kylin with pid 25964 has been stopped.

    您可以運行 ps -ef | grep kylin 來查看 Kylin 進程是否已停止。

  • HDFS 目錄結構

    ? Kylin 會在 HDFS 上生成文件,默認根目錄是 “/kylin/”, 然后會使用 Kylin 集群的元數據表名作為第二層目錄名,默認為 “kylin_metadata” (可以在conf/kylin.properties中定制).

    通常, /kylin/kylin_metadata 目錄下按照不同的 project 存放數據,比如 learn_kylin 項目的數據目錄為 /kylin/kylin_metadata/learn_kylin, 該目錄下通常包括以下子目錄:
    1.job_tmp: 存放執行任務過程中生成的臨時文件。
    2.parquet: 存放各個 cube 的 cuboid 文件。
    3.table_snapshot: 存放維度表快照。

    ## 三、使用教程
  • 提前準備

    將數據寫入Hive表中,供測試使用

    • 創建hive表
    create EXTERNAL TABLE site_base_hive (id string,site_code string,site_name string,audit_code string,culture_code string,licence_code string,webopen_date string,licence_date string,fire_code string,business_status int,stop_business_date string,licence_status int,install_status int,area_code string,police_station string,address string,class_level string,access_operator string,legal_person string,legal_phone string,principal string,principal_phone string,webmaster string,webmaster_phone string,audit_vendor string,charge_system string,charge_sys_version string,longitude float,latitude float,altitude float,safety_num string,ba_terminal_num int,area_size float,is_chain int,del_flag string,creator_by string,create_time string,updator_by string,update_time string,site_name_qp string,site_name_jp string,legal_person_qp string,legal_person_jp string ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'LINES TERMINATED BY '\n'STORED AS parquet TBLPROPERTIES('parquet.compression'='SNAPPY'); create EXTERNAL TABLE offline_hive ( id string,checkin_code string,checkin_type int,site_code string,culture_code string,site_name string,area_code string,area string,credential_type string,certificate_code string,nation string,name string,sexcode string,birthday string,issuing_authority string,certificate_valid string,often_address string,face_status string,face_audit_result int,session_id string,terminalid string,terminalip string,terminalname string,onlinetime bigint,offlinetime bigint,mac_address string,scene_photo string,similarity DECIMAL,head_photo string,is_upload int,card_type int,card_no string,illegal_group_id string,insert_time string,update_time string,data_source string ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'LINES TERMINATED BY '\n'STORED AS parquet TBLPROPERTIES('parquet.compression'='SNAPPY');
    • 從mysql導入數據到Hive
    sqoop import \ --connect jdbc:mysql://192.168.60.10:3306/test_data \ --username root \ --password 123456 \ --table site_base \ --delete-target-dir \ --hive-import \ --hive-database test_data \ --hive-table site_base_hive \ --hive-overwrite \ --fields-terminated-by "\t" \ --as-parquetfile \ # parquet模式下當mysql字段類型與hive字段類型不相同時,需要手動指定導入的類型,否則會報錯 --map-column-java webopen_date=String,licence_date=String,stop_business_date=String,create_time=String,update_time=String \ --map-column-hive webopen_date=String,licence_date=String,stop_business_date=String,create_time=String,update_time=String \ -m 1 sqoop import \ --connect jdbc:mysql://192.168.60.10:3306/test_data \ --username root \ --password 123456 \ --table offline \ --delete-target-dir \ --hive-import \ --hive-database test_data \ --hive-table offline_hive \ --hive-overwrite \ --fields-terminated-by "\t" \ --as-parquetfile \ --map-column-java insert_time=String,update_time=String \ --map-column-hive insert_time=String,update_time=String \ -m 1

    Web頁面介紹

    支持的瀏覽器

    Windows: Google Chrome, FireFox

    Mac: Google Chrome, FireFox, Safari

    登錄系統

    創建工程

  • 點擊加號
  • 輸入項目名稱、項目描述,點擊Submit提交
  • 創建成功
  • 選擇數據源

    ? 雖然 Kylin 使用 SQL 作為查詢接口并利用 Hive 元數據,Kylin 不會讓用戶查詢所有的 hive 表,因為到目前為止它是一個預構建 OLAP(MOLAP) 系統。為了使表在 Kylin 中可用,使用 “Sync” 方法能夠方便地從 Hive 中同步表。

  • 選擇加載數據源方式
  • 選擇需要加載的表,點擊Sync
  • 查看同步的數據源
  • 創建Model

    ? 創建 cube 前,需定義一個數據模型。數據模型定義了一個星型(star schema)或雪花(snowflake schema)模型。一個模型可以被多個 cube 使用。

  • 點擊頂部的 Model ,然后點擊 Models 標簽。點擊 +New 按鈕,在下拉框中選擇 New Model。
  • 輸入 model 的名字和可選的描述,點擊Next
  • 在 Fact Table 中,為模型選擇事實表。
  • 【可選】點擊 Add Lookup Table 按鈕添加一個 lookup 表。選擇表名和關聯類型(內連接或左連接)

  • 點擊 New Join Condition 按鈕,左邊選擇事實表的外鍵,右邊選擇 lookup 表的主鍵。如果有多于一個 join 列重復執行。
  • 點擊 “OK”,重復2,3步來添加更多的 lookup 表。完成后,點擊 “Next”。
  • Dimensions 頁面允許選擇在子 cube 中用作維度的列(統計分析溫度字段),然后點擊 Columns 列,在下拉框中選擇需要的列。

  • 點擊 “Next” 到達 “Measures” 頁面,選擇作為 measure 的列,其只能從事實表中選擇。

  • 這里我沒有選擇,我只想統計數量,沒有求和等其他操作

  • 點擊 “Next” 到達 “Settings” 頁面,如果事實表中的數據每日增長,選擇 Partition Date Column 中相應的 日期列以及日期格式,否則就將其留白。

  • 【可選】選擇是否需要 “time of the day” 列,默認情況下為 No。如果選擇 Yes, 選擇 Partition Time Column 中相應的 time 列以及 time 格式

  • 【可選】如果在從 hive 抽取數據時候想做一些篩選,可以在 Filter 中輸入篩選條件。
  • 點擊 Save 然后選擇 Yes 來保存 data model。創建完成,data model 就會列在左邊 Models 列表中。
  • 創建完成可以看到Models
  • 創建Cube

    創建完 data model,可以開始創建 cube。

  • 點擊頂部 Model,然后點擊 Models 標簽。點擊 +New 按鈕,在下拉框中選擇 New Cube。
  • 填寫Cube 信息,選擇 data model,輸入 cube 名字;點擊 Next 進行下一步

    cube 名字可以使用字母,數字和下劃線(空格不允許)。Notification Email List 是運用來通知job執行成功或失敗情況的郵箱列表。Notification Events 是觸發事件的狀態。

  • 添加維度

    1.添加真正的維度字段(將來會影響 Cuboid 的個數,并且只能從 model 維度字段里面選擇)

    2.后續統計條件字段只能從維度設置字段進行查詢

    點擊Add Dimension

  • 在彈窗中顯示的事實表和 lookup 表里勾選輸入需要的列。Lookup 表的列有2個選項:“Normal” 和 “Derived”(默認)。“Normal” 添加一個普通獨立的維度列,“Derived” 添加一個 derived 維度,derived 維度不會計算入 cube,將由事實表的外鍵推算出。(推薦使用Normal)

  • 添加度量值

    點擊 +Measure 按鈕添加一個新的度量。

  • 根據它的表達式共有7種不同類型的度量:SUM、MAX、MIN、COUNT、COUNT_DISTINCT TOP_N 和 PERCENTILE。請合理選擇 COUNT_DISTINCT 和 TOP_N 返回類型,它與 cube 的大小相關。

    這里度量值默認有一個count(*),其他的可自行選擇。注意:這里的度量值只能從創建模型選擇的字段中進行選擇。

  • 更新配置

    這一步驟是為增量構建 cube 而設計的。

    Auto Merge Thresholds: 自動合并小的 segments 到中等甚至更大的 segment。如果不想自動合并,刪除默認2個選項。

    Volatile Range: 默認為0,會自動合并所有可能的 cube segments,或者用 ‘Auto Merge’ 將不會合并最新的 [Volatile Range] 天的 cube segments。

    Retention Threshold: 只會保存 cube 過去幾天的 segment,舊的 segment 將會自動從頭部刪除;0表示不啟用這個功能。

    Partition Start Date: cube 的開始日期.

  • 高級設置

    Aggregation Groups: Cube 中的維度可以劃分到多個聚合組中。默認 kylin 會把所有維度放在一個聚合組,當維度較多時,產生的組合數可能是巨大的,會造成 Cube 爆炸;如果你很好的了解你的查詢模式,那么你可以創建多個聚合組。在每個聚合組內,使用 “Mandatory Dimensions”, “Hierarchy Dimensions” 和 “Joint Dimensions” 來進一步優化維度組合。

    Mandatory Dimensions: 必要維度,用于總是出現的維度。例如,如果你的查詢中總是會帶有 “ORDER_DATE” 做為 group by 或 過濾條件, 那么它可以被聲明為必要維度。這樣一來,所有不含此維度的 cuboid 就可以被跳過計算。

    Hierarchy Dimensions: 層級維度,例如 “國家” -> “省” -> “市” 是一個層級;不符合此層級關系的 cuboid 可以被跳過計算,例如 [“省”], [“市”]. 定義層級維度時,將父級別維度放在子維度的左邊。

    Joint Dimensions:聯合維度,有些維度往往一起出現,或者它們的基數非常接近(有1:1映射關系)。例如 “user_id” 和 “email”。把多個維度定義為組合關系后,所有不符合此關系的 cuboids 會被跳過計算。

    關于更多維度優化,請閱讀這個博客: 新的聚合組

    Rowkeys: 是由維度編碼值組成。

    你可以拖拽維度列去調整其在 rowkey 中位置; 位于rowkey前面的列,將可以用來大幅縮小查詢的范圍。通常建議將 mandantory 維度放在開頭, 然后是在過濾 ( where 條件)中起到很大作用的維度;如果多個列都會被用于過濾,將高基數的維度(如 user_id)放在低基數的維度(如 age)的前面。

    此外,你還可以在這里指定使用某一列作為 shardBy 列,kylin4.0 會根據 shardBy 列對存儲文件進行分片,分片能夠使查詢引擎跳過不必要的文件,提高查詢性能,最好選擇高基列并且會在多個 cuboid 中出現的列作為 shardBy 列。

    Mandatory Cuboids: 維度組合白名單。確保你想要構建的 cuboid 能被構建。

    Cube Engine: cube 構建引擎。Spark構建。

    這里我們使用默認。

  • 重寫配置

    ? Kylin 允許在 Cube 級別覆蓋部分 kylin.properties 中的配置,你可以在這里定義覆蓋的屬性。如果你沒有要配置的,點擊 Next 按鈕。

  • 概覽 & 保存

    你可以概覽你的 cube 并返回之前的步驟進行修改。點擊 Save 按鈕完成 cube 創建。

  • 可以返回查看Cube信息

  • Cube構建與監控

  • 在 Models 頁面中,點擊 cube 欄右側的 Action 下拉按鈕并選擇 Build 操作。
  • 選擇后會出現一個彈出窗口,點擊 Start Date 或者 End Date 輸入框選擇這個增量 cube 構建的起始日期。

    上面如果沒有選擇分區表的話,這里不會提示選擇日期

  • 點擊 Submit 提交請求。成功之后,你將會在 Monitor 頁面看到新建的 job和進度。

    新建的 job 是 “pending” 狀態;一會兒,它就會開始運行并且你可以通過刷新 web 頁面或者點擊刷新按鈕來查看進度。

  • 等待 job 完成。期間如要放棄這個 job ,點擊 Actions -> Discard 按鈕。
  • 查看Build進度
  • 計算中查看日志,點擊Job
  • 彈出Spark UI新頁面,可以看到計算步驟

  • 等到 job 100%完成,cube 的狀態就會變為 “Ready”, 意味著它已經準備好進行 SQL 查詢。在 Model 頁,找到 cube,然后點擊 cube 名展開消息,在 “Storage” 標簽下,列出 cube segments。每一個 segment 都有 start/end 時間;Parquet 文件相關的信息也會列出。
  • WEB UI查詢SQL

    進入Insight輸入需要執行的統計SQL,進行查詢。

    這里查詢用的字段就是我們之前設置的維度字段,如果使用不設置在維度中的字段,會提示報錯,找不到該字段

    三、SSB數據實際測試

    生成SBB基準測試數據

    • SSB基準測試包括

      1個事實表:lineorder
      4個維度表:customer,part,dwdate,supplier
      13條標準SQL查詢測試語句:統計查詢、多表關聯、sum、復雜條件、group by、order by等組合方式。

    下載SSB數據生成工具:http://www.itpub.net/forum.php?mod=attachment&aid=NzA1NTM0fDFiOGIzOWZifDE0NDc0ODQ2MzZ8MHww

    環境需要gcc

    yum install -y gcc
  • 將工具上傳到Linux服務器并解壓

    [root@r-wb-15 ~]# ll -rw-r--r--. 1 root root 102995 3月 6 14:17 dbgen.zip [root@r-wb-15 ~]# unzip dbgen.zip [root@r-wb-15 ~]# cd dbgen [root@r-wb-15 dbgen]# make
  • 查看生成的dbgen是否可用

    [root@r-wb-15 dbgen]# ./dbgen -h SSBM (Star Schema Benchmark) Population Generator (Version 1.0.0) Copyright Transaction Processing Performance Council 1994 - 2000 USAGE: dbgen [-{vfFD}] [-O {fhmsv}][-T {pcsdla}][-s <scale>][-C <procs>][-S <step>] dbgen [-v] [-O {dfhmr}] [-s <scale>] [-U <updates>] [-r <percent>]
  • 生成數據文件

    # 利用dbgen生成示例數據,-T指定表,-s指定數據放大系數 ./dbgen -s 8 -T c # CUSTOMER表 ./dbgen -s 24 -T p # PART表 ./dbgen -s 8 -T s # SUPPLIER表 ./dbgen -s 1 -T d # DATE_DIM表 ./dbgen -s 2 -T l # LINEORDER表
  • 創建表結構

    CREATE TABLE CUSTOMER ( C_CUSTKEY INTEGER,C_NAME VARCHAR(25) NOT NULL,C_ADDRESS VARCHAR(40) NOT NULL,C_CITY VARCHAR(10) NOT NULL,C_NATION VARCHAR(15) NOT NULL,C_REGION VARCHAR(12) NOT NULL,C_PHONE VARCHAR(15) NOT NULL,C_MKTSEGMENT VARCHAR(10) NOT NULL);CREATE TABLE DATES ( D_DATEKEY INTEGER,D_DATE VARCHAR(18) NOT NULL,D_DAYOFWEEK VARCHAR(18) NOT NULL,D_MONTH VARCHAR(9) NOT NULL,D_YEAR INTEGER NOT NULL,D_YEARMONTHNUM INTEGER,D_YEARMONTH VARCHAR(7) NOT NULL,D_DAYNUMINWEEK INTEGER,D_DAYNUMINMONTH INTEGER,D_DAYNUMINYEAR INTEGER,D_MONTHNUMINYEAR INTEGER,D_WEEKNUMINYEAR INTEGER,D_SELLINGSEASON VARCHAR(12) NOT NULL,D_LASTDAYINWEEKFL INTEGER,D_LASTDAYINMONTHFL INTEGER,D_HOLIDAYFL INTEGER,D_WEEKDAYFL INTEGER);CREATE TABLE PART ( P_PARTKEY INTEGER,P_NAME VARCHAR(22) NOT NULL,P_MFGR VARCHAR(6) NOT NULL,P_CATEGORY VARCHAR(7) NOT NULL,P_BRAND VARCHAR(9) NOT NULL,P_COLOR VARCHAR(11) NOT NULL,P_TYPE VARCHAR(25) NOT NULL,P_SIZE INTEGER NOT NULL,P_CONTAINER VARCHAR(10) NOT NULL);CREATE TABLE SUPPLIER ( S_SUPPKEY INTEGER,S_NAME VARCHAR(25) NOT NULL,S_ADDRESS VARCHAR(25) NOT NULL,S_CITY VARCHAR(10) NOT NULL,S_NATION VARCHAR(15) NOT NULL,S_REGION VARCHAR(12) NOT NULL,S_PHONE VARCHAR(15) NOT NULL);CREATE TABLE LINEORDER ( LO_ORDERKEY BIGINT,LO_LINENUMBER BIGINT,LO_CUSTKEY INTEGER NOT NULL,LO_PARTKEY INTEGER NOT NULL,LO_SUPPKEY INTEGER NOT NULL,LO_ORDERDATE INTEGER NOT NULL,LO_ORDERPRIOTITY VARCHAR(15) NOT NULL,LO_SHIPPRIOTITY INTEGER,LO_QUANTITY BIGINT,LO_EXTENDEDPRICE BIGINT,LO_ORDTOTALPRICE BIGINT,LO_DISCOUNT BIGINT,LO_REVENUE BIGINT,LO_SUPPLYCOST BIGINT,LO_TAX BIGINT,LO_COMMITDATE INTEGER NOT NULL,LO_SHIPMODE VARCHAR(10) NOT NULL);
  • 導入數據

    導入之前生成的數據

    set autocommit=off; load data infile '/opt/customer.tbl' into table CUSTOMER fields terminated by '|' lines terminated by '| '; commit;load data infile '/opt/lineorder.tbl' into table LINEORDER fields terminated by '|' lines terminated by '| '; commit;load data infile '/opt/supplier.tbl' into table SUPPLIER fields terminated by '|' lines terminated by '| '; commit;load data infile '/opt/part.tbl' into table PART fields terminated by '|' lines terminated by '| '; commit;load data infile '/opt/date.tbl' into table DATES fields terminated by '|' lines terminated by '| '; commit;
  • Hive創建相對應的表

    create EXTERNAL TABLE CUSTOMER (C_CUSTKEY int,C_NAME string,C_ADDRESS string,C_CITY string,C_NATION string,C_REGION string,C_PHONE string,C_MKTSEGMENT string ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'LINES TERMINATED BY '\n'STORED AS parquet TBLPROPERTIES('parquet.compression'='SNAPPY');create EXTERNAL TABLE DATES (D_DATEKEY int,D_DATE string,D_DAYOFWEEK string,D_MONTH string,D_YEAR int,D_YEARMONTHNUM int,D_YEARMONTH string,D_DAYNUMINWEEK int,D_DAYNUMINMONTH int,D_DAYNUMINYEAR int,D_MONTHNUMINYEAR int,D_WEEKNUMINYEAR int,D_SELLINGSEASON string,D_LASTDAYINWEEKFL int,D_LASTDAYINMONTHFL int,D_HOLIDAYFL int,D_WEEKDAYFL int ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'LINES TERMINATED BY '\n'STORED AS parquet TBLPROPERTIES('parquet.compression'='SNAPPY');create EXTERNAL TABLE LINEORDER (LO_ORDERKEY bigint,LO_LINENUMBER bigint,LO_CUSTKEY int,LO_PARTKEY int,LO_SUPPKEY int,LO_ORDERDATE int,LO_ORDERPRIOTITY string,LO_SHIPPRIOTITY int,LO_QUANTITY bigint,LO_EXTENDEDPRICE bigint,LO_ORDTOTALPRICE bigint,LO_DISCOUNT bigint,LO_REVENUE bigint,LO_SUPPLYCOST bigint,LO_TAX bigint,LO_COMMITDATE int,LO_SHIPMODE string ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'LINES TERMINATED BY '\n'STORED AS parquet TBLPROPERTIES('parquet.compression'='SNAPPY');create EXTERNAL TABLE PART (P_PARTKEY int,P_NAME string,P_MFGR string,P_CATEGORY string,P_BRAND string,P_COLOR string,P_TYPE string,P_SIZE int,P_CONTAINER string ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'LINES TERMINATED BY '\n'STORED AS parquet TBLPROPERTIES('parquet.compression'='SNAPPY');create EXTERNAL TABLE SUPPLIER (S_SUPPKEY int,S_NAME string,S_ADDRESS string,S_CITY string,S_NATION string,S_REGION string,S_PHONE string ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'LINES TERMINATED BY '\n'STORED AS parquet TBLPROPERTIES('parquet.compression'='SNAPPY');
  • Sqoop 同步 Mysql數據到Hive

    sqoop import \ --connect jdbc:mysql://192.168.60.10:3306/test_data \ --username root \ --password 123456 \ --table SUPPLIER \ --delete-target-dir \ --hive-import \ --hive-database test_data \ --hive-table SUPPLIER \ --hive-overwrite \ --fields-terminated-by "\t" \ --as-parquetfile \ -m 1sqoop import \ --connect jdbc:mysql://192.168.60.10:3306/test_data \ --username root \ --password 123456 \ --table CUSTOMER \ --delete-target-dir \ --hive-import \ --hive-database test_data \ --hive-table CUSTOMER \ --hive-overwrite \ --fields-terminated-by "\t" \ --as-parquetfile \ -m 1sqoop import \ --connect jdbc:mysql://192.168.60.10:3306/test_data \ --username root \ --password 123456 \ --table DATES \ --delete-target-dir \ --hive-import \ --hive-database test_data \ --hive-table DATES \ --hive-overwrite \ --fields-terminated-by "\t" \ --as-parquetfile \ -m 1sqoop import \ --connect jdbc:mysql://192.168.60.10:3306/test_data \ --username root \ --password 123456 \ --table LINEORDER \ --delete-target-dir \ --hive-import \ --hive-database test_data \ --hive-table LINEORDER \ --hive-overwrite \ --fields-terminated-by "\t" \ --as-parquetfile \ -m 1sqoop import \ --connect jdbc:mysql://192.168.60.10:3306/test_data \ --username root \ --password 123456 \ --table PART \ --delete-target-dir \ --hive-import \ --hive-database test_data \ --hive-table PART \ --hive-overwrite \ --fields-terminated-by "\t" \ --as-parquetfile \ -m 1
  • 標準測試SQL

    PROMPT Q1.1 SELECT SUM(LO_EXTENDEDPRICE*LO_DISCOUNT) AS REVENUE FROM LINEORDER, DATES WHERE LO_ORDERDATE = D_DATEKEY AND D_YEAR = 1993 AND LO_DISCOUNT BETWEEN 1 AND 3 AND LO_QUANTITY < 25;PROMPT Q1.2 SELECT SUM(LO_EXTENDEDPRICE*LO_DISCOUNT) AS REVENUE FROM LINEORDER, DATES WHERE LO_ORDERDATE = D_DATEKEY AND D_YEARMONTH = 'Jan1994' AND LO_DISCOUNT BETWEEN 4 AND 6 AND LO_QUANTITY BETWEEN 26 AND 35;PROMPT Q1.3 SELECT SUM(LO_EXTENDEDPRICE*LO_DISCOUNT) AS REVENUE FROM LINEORDER, DATES WHERE LO_ORDERDATE = D_DATEKEY AND D_WEEKNUMINYEAR = 6 AND D_YEAR = 1994 AND LO_DISCOUNT BETWEEN 5 AND 7 AND LO_QUANTITY BETWEEN 26 AND 35;PROMPT Q2.1 SELECT SUM(LO_REVENUE), D_YEAR, P_BRAND FROM LINEORDER, DATES, PART, SUPPLIER WHERE LO_ORDERDATE = D_DATEKEY AND LO_PARTKEY = P_PARTKEY AND LO_SUPPKEY = S_SUPPKEY AND P_CATEGORY = 'MFGR#12' AND S_REGION = 'AMERICA' GROUP BY D_YEAR, P_BRAND ORDER BY D_YEAR, P_BRAND;PROMPT Q2.2 SELECT SUM(LO_REVENUE), D_YEAR, P_BRAND FROM LINEORDER, DATES, PART, SUPPLIER WHERE LO_ORDERDATE = D_DATEKEY AND LO_PARTKEY = P_PARTKEY AND LO_SUPPKEY = S_SUPPKEY AND P_BRAND BETWEEN 'MFGR#2221' AND 'MFGR#2228' AND S_REGION = 'ASIA' GROUP BY D_YEAR, P_BRAND ORDER BY D_YEAR, P_BRAND;PROMPT Q2.3 SELECT SUM(LO_REVENUE), D_YEAR, P_BRAND FROM LINEORDER, DATES, PART, SUPPLIER WHERE LO_ORDERDATE = D_DATEKEY AND LO_PARTKEY = P_PARTKEY AND LO_SUPPKEY = S_SUPPKEY AND P_BRAND= 'MFGR#2239' AND S_REGION = 'EUROPE' GROUP BY D_YEAR, P_BRAND ORDER BY D_YEAR, P_BRAND;PROMPT Q3.1 SELECT C_NATION, S_NATION, D_YEAR, SUM(LO_REVENUE) AS REVENUE FROM CUSTOMER, LINEORDER, SUPPLIER, DATES WHERE LO_CUSTKEY = C_CUSTKEY AND LO_SUPPKEY = S_SUPPKEY AND LO_ORDERDATE = D_DATEKEY AND C_REGION = 'ASIA' AND S_REGION = 'ASIA' AND D_YEAR >= 1992 AND D_YEAR <= 1997 GROUP BY C_NATION, S_NATION, D_YEAR ORDER BY D_YEAR ASC, REVENUE DESC;PROMPT Q3.2 SELECT C_CITY, S_CITY, D_YEAR, SUM(LO_REVENUE) AS REVENUE FROM CUSTOMER, LINEORDER, SUPPLIER, DATES WHERE LO_CUSTKEY = C_CUSTKEY AND LO_SUPPKEY = S_SUPPKEY AND LO_ORDERDATE = D_DATEKEY AND C_NATION = 'UNITED STATES' AND S_NATION = 'UNITED STATES' AND D_YEAR >= 1992 AND D_YEAR <= 1997 GROUP BY C_CITY, S_CITY, D_YEAR ORDER BY D_YEAR ASC, REVENUE DESC;PROMPT Q3.3 SELECT C_CITY, S_CITY, D_YEAR, SUM(LO_REVENUE) AS REVENUE FROM CUSTOMER, LINEORDER, SUPPLIER, DATES WHERE LO_CUSTKEY = C_CUSTKEY AND LO_SUPPKEY = S_SUPPKEY AND LO_ORDERDATE = D_DATEKEY AND (C_CITY='UNITED KI1' OR C_CITY='UNITED KI5') AND (S_CITY='UNITED KI1' OR S_CITY='UNITED KI5') AND D_YEAR >= 1992 AND D_YEAR <= 1997 GROUP BY C_CITY, S_CITY, D_YEAR ORDER BY D_YEAR ASC, REVENUE DESC;PROMPT Q3.4 SELECT C_CITY, S_CITY, D_YEAR, SUM(LO_REVENUE) AS REVENUE FROM CUSTOMER, LINEORDER, SUPPLIER, DATES WHERE LO_CUSTKEY = C_CUSTKEY AND LO_SUPPKEY = S_SUPPKEY AND LO_ORDERDATE = D_DATEKEY AND (C_CITY='UNITED KI1' OR C_CITY='UNITED KI5') AND (S_CITY='UNITED KI1' OR S_CITY='UNITED KI5') AND D_YEARMONTH = 'Dec1997' GROUP BY C_CITY, S_CITY, D_YEAR ORDER BY D_YEAR ASC, REVENUE DESC;PROMPT Q4.1 SELECT D_YEAR, C_NATION, SUM(LO_REVENUE - LO_SUPPLYCOST) AS PROFIT FROM DATES, CUSTOMER, SUPPLIER, PART, LINEORDER WHERE LO_CUSTKEY = C_CUSTKEY AND LO_SUPPKEY = S_SUPPKEY AND LO_PARTKEY = P_PARTKEY AND LO_ORDERDATE = D_DATEKEY AND C_REGION = 'AMERICA' AND S_REGION = 'AMERICA' AND (P_MFGR = 'MFGR#1' OR P_MFGR = 'MFGR#2') GROUP BY D_YEAR, C_NATION ORDER BY D_YEAR, C_NATION;PROMPT Q4.2 SELECT D_YEAR, S_NATION, P_CATEGORY, SUM(LO_REVENUE - LO_SUPPLYCOST) AS PROFIT FROM DATES, CUSTOMER, SUPPLIER, PART, LINEORDER WHERE LO_CUSTKEY = C_CUSTKEY AND LO_SUPPKEY = S_SUPPKEY AND LO_PARTKEY = P_PARTKEY AND LO_ORDERDATE = D_DATEKEY AND C_REGION = 'AMERICA' AND S_REGION = 'AMERICA' AND (D_YEAR = 1997 OR D_YEAR = 1998) AND (P_MFGR = 'MFGR#1' OR P_MFGR = 'MFGR#2') GROUP BY D_YEAR, S_NATION, P_CATEGORY ORDER BY D_YEAR, S_NATION, P_CATEGORY;PROMPT Q4.3 SELECT D_YEAR, S_CITY, P_BRAND, SUM(LO_REVENUE - LO_SUPPLYCOST) AS PROFIT FROM DATES, CUSTOMER, SUPPLIER, PART, LINEORDER WHERE LO_CUSTKEY = C_CUSTKEY AND LO_SUPPKEY = S_SUPPKEY AND LO_PARTKEY = P_PARTKEY AND LO_ORDERDATE = D_DATEKEY AND S_NATION = 'UNITED STATES' AND (D_YEAR = 1997 OR D_YEAR = 1998) AND P_CATEGORY = 'MFGR#14' GROUP BY D_YEAR, S_CITY, P_BRAND ORDER BY D_YEAR, S_CITY, P_BRAND;
  • 這里我們先用這個sql做測試

    SELECT SUM(LO_REVENUE), D_YEAR, P_BRAND FROM LINEORDER, DATES, PART, SUPPLIER WHERE LO_ORDERDATE = D_DATEKEY AND LO_PARTKEY = P_PARTKEY AND LO_SUPPKEY = S_SUPPKEY AND P_CATEGORY = 'MFGR#12' AND S_REGION = 'AMERICA' GROUP BY D_YEAR, P_BRAND ORDER BY D_YEAR, P_BRAND;Kylin不支持笛卡爾積查詢,我們轉換為JOIN查詢 SELECT SUM(LO_REVENUE) AS SUM1, D_YEAR, P_BRAND FROM LINEORDER JOIN DATES ON LO_ORDERDATE = D_DATEKEY JOIN PART ON LO_PARTKEY = P_PARTKEY JOIN SUPPLIER ON LO_SUPPKEY = S_SUPPKEY WHERE P_CATEGORY = 'MFGR#12' AND S_REGION = 'AMERICA' GROUP BY D_YEAR, P_BRAND ORDER BY D_YEAR, P_BRAND;

    Kylin不支持笛卡爾積查詢,查詢報錯如下

    Cartesian Join is not supported. while executing SQL: "select * from (SELECT SUM(LO_REVENUE), D_YEAR, P_BRAND FROM LINEORDER, DATES, PART, SUPPLIER WHERE LO_ORDERDATE = D_DATEKEY AND LO_PARTKEY = P_PARTKEY AND LO_SUPPKEY = S_SUPPKEY AND P_CATEGORY = 'MFGR#12' AND S_REGION = 'AMERICA' GROUP BY D_YEAR, P_BRAND ORDER BY D_YEAR, P_BRAND) limit 50000"
  • Kylin創建Model

  • 創建CUBE
  • 一直Next直至完成

  • build CUBE
  • Build 完成

    Build 構建共花了156分鐘

  • 數據圖表展示及導出
  • Mysql查詢、Hive查詢、Kylin查詢對比

    查詢類型耗時
    Mysql超時
    Kylin1秒以內
    Hive74.237秒
    • Mysql查詢超時

    • Kylin查詢秒級響應

    • Hive查詢74秒

    四、Kylin使用注意事項

    只能按照構建Model的連接條件寫SQL查詢

    ? 在創建Model時候我們會指定表之間的關聯關系,這個時候指定的關系,在后面查詢SQL也只能查詢這種關系的SQL。

    如果不按照設定的join類型,會提示錯誤

    示例:改成LEFT JOIN去查詢,無法返回結果

    只能按照構建 Cube 時選擇的維度字段分組統計

    分組統計、查詢字段必須在創建Cube時選擇上維度,否則無法當做條件查詢。

    示例:我們使用未在維度中字段查詢,提示報錯

    只能統計構建Cube 時選擇的度量值字段

    在統計時候只能統計添加度量值字段(默認會有一個count(*)來統計數量。)

    示例:統計不在度量值的字段會提示報錯

    五、Kylin每日自動構建Cube

    ? Kylin 提供了 Restful API,因次我們可以將構建 cube 的命令寫到腳本中,將腳本交給
    azkaban 或者 oozie 這樣的調度工具,以實現定時調度的功能。

    認證密碼加密方式:

    ${Authorization}計算方式: Base64($username:$password)Authorization: Basic ${Authorization} Authorization: Basic QURNSU46S1lMSU4=

    kylin_cube_build.sh 腳本如下:

    #!/bin/bash #從第 1 個參數獲取 cube_name cube_name=$1 #從第 2 個參數獲取構建 cube 時間 if [ -n "$2" ] then do_date=$2 else do_date=`date -d '-1 day' +%F` fi #獲取執行時間的 00:00:00 時間戳(0 時區) start_date_unix=`date -d "$do_date 08:00:00" +%s` #秒級時間戳變毫秒級 start_date=$(($start_date_unix*1000)) #獲取執行時間的 24:00 的時間戳 stop_date=$(($start_date+86400000)) curl -X PUT -H "Authorization: Basic QURNSU46S1lMSU4=" -H 'Content-Type: application/json' -d '{"startTime":'$start_date',"endTime":'$stop_date', "buildType":"BUILD"}' http://192.168.60.15:7070/kylin/api/cubes/$cube_name/build

    注:我們沒有修改 kylin 的時區,因此 kylin 內部只識別 0 時區的時間,0 時區的 0 點是

    東 8 區的早上 8 點,因此我們在腳本里要寫$do_date 08:00:00 來彌補時差問題。

    六、BI工具集成

    可以與 Kylin 結合使用的可視化工具很多,例如:

    ODBC:與 Tableau、Excel、PowerBI 等工具集成

    JDBC:與 Saiku、BIRT 等 Java 工具集成

    RestAPI:與 JavaScript、Web 網頁集成

    Kylin 開發團隊還貢獻了 Zepplin的插件,也可以使用 Zepplin 來訪問 Kylin 服務。

    JDBC

  • 新建項目并導入依賴

    <!-- https://mvnrepository.com/artifact/org.apache.kylin/kylin-jdbc --> <dependency><groupId>org.apache.kylin</groupId><artifactId>kylin-jdbc</artifactId><version>4.0.1</version> </dependency>
  • Java代碼

    import java.sql.*;/*** @author Jast* @description* @date 2022-03-07 11:22*/ public class KylinTest {public static void main(String[] args) throws Exception {//Kylin_JDBC 驅動String KYLIN_DRIVER = "org.apache.kylin.jdbc.Driver";//Kylin_URLString KYLIN_URL ="jdbc:kylin://192.168.60.15:7070/FirstProject";//Kylin 的用戶名String KYLIN_USER = "ADMIN";//Kylin 的密碼String KYLIN_PASSWD = "KYLIN";//添加驅動信息Class.forName(KYLIN_DRIVER);//獲取連接Connection connection =DriverManager.getConnection(KYLIN_URL, KYLIN_USER, KYLIN_PASSWD);//預編譯 SQLPreparedStatement ps = connection.prepareStatement("SELECT SUM(LO_REVENUE) AS SUM1, D_YEAR, P_BRAND FROM LINEORDER JOIN DATES ON LO_ORDERDATE = D_DATEKEY JOIN PART ON LO_PARTKEY = P_PARTKEY JOIN SUPPLIER ON LO_SUPPKEY = S_SUPPKEY WHERE P_CATEGORY = 'MFGR#12' AND S_REGION = 'AMERICA' GROUP BY D_YEAR, P_BRAND ORDER BY D_YEAR, P_BRAND;");//執行查詢ResultSet resultSet = ps.executeQuery();//遍歷打印while (resultSet.next()) {System.out.println(resultSet.getString(1) + ":" + resultSet.getDouble(2));}} }
  • Zepplin

    下載地址:https://zeppelin.apache.org/download.html

    安裝與啟動

  • 下載

    這個安裝包較大,下載的這個版本1.6G

    wget https://dlcdn.apache.org/zeppelin/zeppelin-0.10.1/zeppelin-0.10.1-bin-all.tgz --no-check-certificate
  • 將zeppelin-0.10.1.tar.gz上傳到Linux服務器

  • 解壓、重命名

    tar -zxvf zeppelin-0.10.1-bin-all.tgz mv zeppelin-0.10.1-bin-all zeppelin
  • 修改啟動參數

    修改文件zeppelin-site.xml

    mv zeppelin-site.xml.template zeppelin-site.xml

    修改前:

    <property><name>zeppelin.server.addr</name><value>127.0.0.1</value><description>Server binding address</description> </property><property><name>zeppelin.server.port</name><value>8080</value><description>Server port.</description> </property>

    修改后

    <property><name>zeppelin.server.addr</name><value>0.0.0.0</value><description>Server binding address</description> </property><property><name>zeppelin.server.port</name><value>17890</value><description>Server port.</description> </property>
  • 啟動

    functions.sh stop-interpreter.sh zeppelin.sh [root@r-wb-15 zeppelin]# bin/zeppelin-daemon.sh start Please specify HADOOP_CONF_DIR if USE_HADOOP is true Log dir doesn't exist, create /root/zeppelin/logs Pid dir doesn't exist, create /root/zeppelin/run Zeppelin start [ OK ]
  • 訪問

    訪問地址http://192.168.60.15:17890/

    配置Kylin

  • 點擊右上角 anonymous 選擇 Interpreter

  • 搜索Kylin并配置基本信息

  • 使用Zepplin查詢Kylin

  • 點擊Notebook->Create new note

  • 填寫Note Name和Default Interpreter

    如果上面Default Interpreter沒有選擇默認的為Kylin,每次輸入指定的SQL需要在前面加上%kylin

  • 查詢Kylin

  • 總結

    以上是生活随笔為你收集整理的Apache Kylin从入门到精通的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    av三级在线看| 99精品免费观看 | 久久综合九色综合97婷婷女人 | 日本中文字幕在线免费观看 | 国产免费高清 | 91黄色成人| 日日天天av| 日本性久久 | 久草视频在线播放 | 成人久久久久 | 国产 日韩 中文字幕 | 国产成人福利在线观看 | 美女免费视频一区 | 久久99国产精品久久 | av在线永久免费观看 | 成人avav | 国产成人亚洲在线观看 | 天天操偷偷干 | 日韩电影精品 | 九九热在线精品视频 | 日韩精品大片 | 中文字幕 国产视频 | 久久刺激视频 | 色婷婷亚洲综合 | 中文字幕在线观看网址 | 国产精品女视频 | 麻豆高清免费国产一区 | 黄色最新网址 | 亚洲精品理论片 | 久久久久久蜜桃一区二区 | 国产盗摄精品一区二区 | 国产成人三级在线播放 | 天天操天天综合网 | 亚洲成av人片一区二区梦乃 | 狠狠的操| 久久久久久久久久久高潮一区二区 | 岛国大片免费视频 | 91干干干 | 亚洲欧洲国产日韩精品 | 国产精品h在线观看 | 成人资源在线观看 | 国产色婷婷精品综合在线手机播放 | 蜜臀久久99精品久久久无需会员 | 日本精品久久久久中文字幕 | 又爽又黄又无遮挡网站动态图 | 97视频免费看 | 人人舔人人干 | 手机av看片 | 久久久久久看片 | 国产精品视频免费看 | 久久久久久久久久影视 | 亚洲国产中文字幕 | 国内精自线一二区永久 | 在线国产中文字幕 | 成人不用播放器 | 久久精品伊人 | 人人玩人人爽 | 国产精品 日本 | 中文在线字幕免费观看 | 亚洲成人av在线 | 成人免费视频播放 | 久久国产精品电影 | 黄色片视频免费 | 日本少妇高清做爰视频 | 久久久电影网站 | 中文视频在线 | 日日夜夜精品视频天天综合网 | 国产欧美综合在线观看 | 成人免费网站在线观看 | 91麻豆传媒 | 欧美性天天 | 欧美福利精品 | 91丨九色丨国产丨porny精品 | 日韩欧美精品一区二区三区经典 | 久久久久一区二区三区 | 中文在线a√在线 | 精品一区二区三区久久 | 在线观看中文字幕第一页 | a级黄色片视频 | 黄色大片入口 | 日本中文字幕网站 | 免费精品国产va自在自线 | 在线高清 | 婷婷日| 五月天久久久久久 | 国产剧情久久 | 91视频下载 | 亚洲视频在线视频 | 亚洲不卡123 | 国产一二三四在线观看视频 | 四虎影视精品永久在线观看 | 天天艹日日干 | 免费视频xnxx com| 欧美精品乱码久久久久久按摩 | 亚洲精品美女视频 | 亚洲三级av | 国产精品毛片完整版 | 中文字幕在线观看视频一区 | 日韩av免费观看网站 | 欧美专区国产专区 | 欧美成人性战久久 | 国产护士hd高朝护士1 | 成人在线免费视频 | 91精品国产福利 | 永久免费精品视频网站 | 色在线视频网 | 99色网站| 国产精品爽爽久久久久久蜜臀 | 国产一区国产二区在线观看 | 国产99亚洲 | 亚洲综合色播 | 人人模人人爽 | 日韩成人一级大片 | 国产精品日韩精品 | 免费视频久久久 | 欧美一区二视频在线免费观看 | 天天干天天操天天爱 | 国产一级一片免费播放放a 一区二区三区国产欧美 | 欧美xxxx性xxxxx高清 | 天天操夜夜干 | 国产玖玖在线 | 天天插天天操天天干 | 免费午夜在线视频 | 国产精品久久久一区二区三区网站 | 韩国av不卡| 午夜精品久久久久久久99水蜜桃 | 欧美一性一交一乱 | 国产精品久久久久久久av电影 | 日韩中午字幕 | 国产成人精品一区二三区 | 91污污视频在线观看 | 国产精品99久久久 | 一区二区三区四区在线 | 91视频 - 88av | 亚洲一区视频在线播放 | av电影亚洲 | 99久久久久久久久久 | 综合精品久久久 | 欧美激情精品久久久久 | 97成人免费视频 | 国产精品久久久久久久av电影 | 日韩电影中文 | 久草在在线| 午夜精品电影 | 欧美日韩久久久 | 91精品视频免费看 | 欧美巨大荫蒂茸毛毛人妖 | av成人免费在线 | 亚洲国产精品资源 | 欧美午夜a | 免费大片黄在线 | 国产日韩在线播放 | 日韩精品欧美专区 | 欧美a在线看 | 碰超在线97人人 | 亚洲特级毛片 | 亚洲成av人片在线观看香蕉 | 中文字幕在线观看一区二区三区 | 国产精品欧美久久久久无广告 | 日韩成人中文字幕 | 91精品国产麻豆 | 91av蜜桃 | 午夜精品在线看 | japanesefreesexvideo高潮| 欧美另类sm图片 | 亚洲精品一区二区三区四区高清 | 成人中文字幕+乱码+中文字幕 | www.在线观看av | 精品久久一 | 日韩1级片 | 高清中文字幕av | 久久精品专区 | 在线观看黄色大片 | 极品久久久久 | 精品久久久久久亚洲综合网站 | 国产在线精品一区二区 | 成年人在线观看免费视频 | 国产精品视频永久免费播放 | 人人射人人插 | 肉色欧美久久久久久久免费看 | 日韩一区二区在线免费观看 | 欧美中文字幕久久 | 免费韩国av | 婷婷日韩 | 日本精品二区 | 在线视频观看成人 | 国产一区免费 | 国产真实精品久久二三区 | 91人人射| 日韩爱爱片| 久久久久国产精品一区 | 在线三级播放 | 中文一区二区三区在线观看 | 亚洲另类xxxx | 最近日本韩国中文字幕 | 中文字幕乱码亚洲精品一区 | 美女搞黄国产视频网站 | 狠狠狠色丁香综合久久天下网 | 黄色在线观看免费 | 久久视频 | 欧美 国产 视频 | 成人精品电影 | 一区二区三区四区五区在线 | 欧美日韩国产综合一区二区 | 久久激五月天综合精品 | 综合网婷婷 | 在线观看免费高清视频大全追剧 | 日韩丝袜| 国产超碰97 | 亚洲国产成人在线观看 | 亚洲一级电影视频 | 中文字幕日韩一区二区三区不卡 | 亚洲一级片在线看 | 天天天天天干 | 九色琪琪久久综合网天天 | 日韩国产精品一区 | 欧美日韩在线视频观看 | 亚洲三级在线免费观看 | 日本黄区免费视频观看 | 九九九热精品免费视频观看 | 久久97久久97精品免视看 | 亚洲成av人片在线观看www | 亚洲精品一区中文字幕乱码 | 97视频久久久 | 99久高清在线观看视频99精品热在线观看视频 | avlulu久久精品 | 在线观看亚洲专区 | 又黄又爽又无遮挡的视频 | 亚洲涩涩色 | 免费a v网站 | 不卡的av在线 | 欧美高清成人 | 精品国产免费久久 | 日本不卡一区二区三区在线观看 | www.伊人网| 激情一区二区三区欧美 | 国产亚洲婷婷免费 | 日韩中文久久 | 国产专区精品视频 | 国产精品欧美久久久久无广告 | 最新日韩精品 | 免费看一级一片 | 亚洲视屏一区 | 亚洲视频在线看 | 国产中文字幕网 | 日本深夜福利视频 | 99色在线观看视频 | 久久午夜网 | 久久精品99久久久久久 | 丁香婷婷电影 | 福利一区二区在线 | 色综合久久66 | 国产精品一区在线播放 | 国产又粗又猛又爽又黄的视频先 | 亚洲成年人av | 国产91免费在线观看 | 黄色看片 | 一区二区三区手机在线观看 | 国产精品美女 | 91麻豆精品国产91久久久无限制版 | 免费在线| .国产精品成人自产拍在线观看6 | 久久 精品一区 | 韩国av三级 | 香蕉免费在线 | 在线免费观看国产精品 | 亚洲精品456在线播放乱码 | 看v片| 久久精品第一页 | 黄色国产区| 人人插人人草 | 欧美激精品 | 色婷婷午夜 | 91粉色视频 | 91网免费观看 | 男女靠逼app| www.福利视频 | 国产精彩视频一区二区 | 成人av动漫在线 | 亚洲综合婷婷 | 中文字幕在线网 | 亚洲国产操 | 久久av一区二区三区亚洲 | 久草免费新视频 | av激情五月 | 久久精品日产第一区二区三区乱码 | 国产精品99久久久久久人免费 | 日韩av网站在线播放 | 91高清一区 | 就要色综合 | 97狠狠干 | 97成人资源站 | 激情偷乱人伦小说视频在线观看 | 欧美精品九九99久久 | 精品免费久久久久久 | 国产一级免费片 | 日日夜夜狠狠干 | 四虎影视成人永久免费观看视频 | 久久99久久99精品免视看婷婷 | 99久久久国产精品免费99 | 成人在线视频免费观看 | 欧美日韩首页 | 亚洲欧美综合精品久久成人 | 久久综合狠狠综合久久狠狠色综合 | 欧美日韩国产精品久久 | 四川bbb搡bbb爽爽视频 | 天天色综合三 | 在线看污网站 | 在线中文字幕一区二区 | 韩国av三级 | 五月婷婷.com| 久久久久久久久影视 | 欧美 另类 交 | 欧美了一区在线观看 | 国产精品久久久久久久7电影 | 国内视频 | 青青草国产精品 | 亚州性色| 精品视频资源站 | 亚洲女在线 | www.av免费观看 | 久草国产在线 | 久久夜色精品国产欧美乱极品 | 97国产精品| 精品久久久久国产 | 日韩大片在线观看 | 亚洲专区路线二 | 91精品一区二区三区蜜臀 | 国产精品久久网站 | 欧产日产国产69 | 免费手机黄色网址 | 日韩电影中文字幕在线 | 久草www | h网站免费在线观看 | 中文字幕精品www乱入免费视频 | 国产一区二区在线免费 | 天天色天天干天天 | 久久只精品99品免费久23小说 | 中文字幕免费观看全部电影 | 欧美激情精品久久久久久 | 欧美亚洲另类在线视频 | 手机看片久久 | 久久激情影院 | 亚洲在线不卡 | 亚洲成人黄色在线 | 天天天天射 | 久久精品中文视频 | 区一区二区三在线观看 | 在线观看不卡视频 | 丁香九月婷婷 | 99久久精品国产免费看不卡 | 99久久久国产精品免费观看 | 欧美色图亚洲图片 | 夜夜操综合网 | 日韩欧美一区二区不卡 | 久久国产精品一区二区三区四区 | 超碰97在线人人 | 国产日韩欧美中文 | 国产精品黄网站在线观看 | 高清av中文在线字幕观看1 | 亚洲精品自拍视频在线观看 | 国产伦精品一区二区三区无广告 | 五月婷婷激情综合网 | 国产激情小视频在线观看 | 91久久国产露脸精品国产闺蜜 | 国产精品第一视频 | 国产不卡网站 | 久久一区91 | 成人免费在线播放视频 | 亚洲综合色网站 | av片中文字幕 | 99久久久成人国产精品 | 免费在线观看日韩欧美 | 国产精品青青 | 久久精品久久精品久久 | 伊人五月婷 | 国产一区二区三区网站 | 国产成人免费高清 | 久久国产精品99久久久久久丝袜 | 在线电影播放 | 国产91区 | 91人人网 | 日韩精品视频一二三 | 久久精品久久久久久久 | 亚洲,播放| 五月婷婷中文 | 91人人视频在线观看 | 日韩视频在线播放 | 国产成人免费网站 | 五月综合婷 | 一级黄色电影网站 | 亚洲狠狠干 | 国产中文字幕在线播放 | 国内精品久久久久久久久久清纯 | 久操视频在线观看 | 婷婷午夜| 色婷婷欧美 | 天天操天天操天天操天天操天天操天天操 | 国产在线播放不卡 | 91.麻豆视频| 成人在线视| 亚洲国产精品久久久 | 国内精品久久久久久久97牛牛 | 欧美一级视频免费看 | 免费三级大片 | 又黄又爽免费视频 | 97精品一区 | 亚州欧美精品 | 久热超碰 | 99热在线精品观看 | 99精品视频在线播放免费 | 亚洲成av片人久久久 | 中文av网| 欧美日韩不卡一区二区 | 黄色一级免费网站 | 日本在线成人 | 中文字幕在线观看视频免费 | 91在线免费观看网站 | 在线免费观看涩涩 | 99精品免费久久久久久久久 | 国产精品成人自产拍在线观看 | av手机在线播放 | 成人av直播| 国产xxxx性hd极品 | 99婷婷狠狠成为人免费视频 | 欧美精品免费在线 | 精品亚洲va在线va天堂资源站 | 丁香婷婷综合色啪 | 欧美 日韩 国产 成人 在线 | 在线免费观看麻豆视频 | 91福利试看| 欧美日韩一二三四区 | 精品国产色 | 亚洲精品国产麻豆 | 国产精品高清av | 色婷婷成人 | 色久综合| 中文字幕有码在线观看 | 日韩在线网址 | 久久香蕉一区 | 久久久久久草 | 99在线精品观看 | 国产手机视频在线观看 | 91精品一| 亚洲精品在线观 | a黄色一级 | 亚洲视频电影在线 | 欧美日韩一区二区免费在线观看 | 性色av免费观看 | 国产一区在线视频播放 | 911av视频| 中文字幕视频一区 | 亚洲视频免费在线 | 日韩欧美网址 | 看全黄大色黄大片 | 99热只有精品在线观看 | 又黄又爽又湿又无遮挡的在线视频 | 正在播放 久久 | 亚洲最新av网址 | 97日日碰人人模人人澡分享吧 | 国产精品久久综合 | 精品一区电影 | 午夜丁香网 | 欧美乱码精品一区二区 | 天天操网站 | 亚洲毛片视频 | 久久综合电影 | 国产精品理论片在线观看 | 99热这里只有精品久久 | 福利视频一区二区 | 深夜免费福利视频 | 狠狠狠狠干 | 国产亚洲亚洲 | 国产一级片不卡 | 一区二区三区免费在线观看 | 91av中文字幕 | 欧美日韩在线视频一区 | 成人av电影在线观看 | 午夜av日韩| 国产精品久久久久久久7电影 | 午夜视频在线观看一区 | 欧美精品xxx| 亚洲日韩中文字幕在线播放 | 一个色综合网站 | 欧美成人黄色 | 97超级碰碰碰碰久久久久 | 欧美特一级 | 精品美女在线观看 | 九色视频网站 | 欧美a影视 | 一区二区不卡在线观看 | 五月天婷婷丁香花 | 91福利社区在线观看 | 国产麻豆剧果冻传媒视频播放量 | 久久久久综合 | 超碰国产97 | 久久成人在线视频 | 天天操夜夜做 | 天天曰天天干 | 亚洲一区免费在线 | 在线观看视频一区二区三区 | 黄色aa久久 | 久久热首页 | 精品视频免费久久久看 | 久草在线视频看看 | 69精品在线观看 | 日韩av电影网站在线观看 | 在线视频日韩欧美 | 热精品 | 黄色特一级| 国产色资源 | 日韩视频一区二区三区在线播放免费观看 | www91在线观看| 色在线亚洲 | 欧美色就是色 | 六月婷婷久香在线视频 | 亚洲免费一级 | 99视频在线观看视频 | 久久永久视频 | 久久精品视频3 | 日韩av播放在线 | 欧美日韩国产mv | 欧美精品久久久久 | 999视频网站| 国产 字幕 制服 中文 在线 | 久久你懂的 | 日韩中文字幕免费视频 | 午夜影院日本 | 国产精品理论片在线观看 | 国产一区二区视频在线播放 | 久久激情精品 | 狠狠色狠狠色合久久伊人 | 成人av在线一区二区 | 国产在线观看免费av | 在线观看一级 | 亚洲永久精品一区 | 国产视频二 | 亚洲成人资源在线观看 | 蜜臀av性久久久久av蜜臀妖精 | 日韩欧美视频一区二区三区 | 国产精品一区二区三区99 | 美女久久久久久久 | 成人h视频在线 | 日韩av免费大片 | 麻豆影视网| 黄色福利网 | 午夜国产一区二区三区四区 | 欧美一区二区在线刺激视频 | 99精品国产aⅴ | 中文字幕第一页在线视频 | 午夜精品久久久久久久久久久 | 亚洲有 在线 | 亚洲欧美日韩一级 | 99久久激情 | 日本中文字幕在线观看 | 最新国产精品拍自在线播放 | 国产精品久久久久久一区二区 | 婷婷网在线 | 在线观看免费福利 | 国产高清视频在线播放 | 日韩在线免费 | 中文字幕在线观看完整版电影 | 免费国产在线精品 | 欧美一区,二区 | 手机看片99 | 伊人伊成久久人综合网站 | 999国内精品永久免费视频 | 中文字幕日韩伦理 | 99这里都是精品 | 五月婷婷丁香综合 | av高清免费在线 | 国产精品欧美久久 | 色99网| 亚洲国产成人在线 | 欧美性黄网官网 | 久久久福利视频 | 韩国精品在线 | 久久中文精品视频 | 中文字幕频道 | 精品久久久久久久久久久院品网 | 国内视频一区二区 | 色a资源在线 | 最新国产在线观看 | 亚洲激情 | 欧美激情第八页 | 成人性生交视频 | 欧美色综合天天久久综合精品 | 伊人狠狠| 精品免费观看视频 | 成人性生交大片免费观看网站 | 久草在线综合网 | 国色天香第二季 | 国产欧美精品一区二区三区四区 | 日韩黄色在线观看 | 日韩中文在线视频 | 九色91av| 久久尤物电影视频在线观看 | 九九九九精品 | 亚洲欧美激情精品一区二区 | 亚洲精品乱码久久久久久蜜桃动漫 | 欧美亚洲一区二区在线 | 国产精品国产亚洲精品看不卡15 | 狠狠躁夜夜躁人人爽视频 | 五月天激情综合网 | 在线免费av网 | 伊人婷婷综合 | 免费a级毛片在线看 | 欧美午夜a | 欧美经典久久 | 亚洲涩涩涩| 狠狠操天天干 | 99麻豆久久久国产精品免费 | 在线观看国产一区 | 成人中文字幕av | 国产xxxx | 久久永久免费 | 国产色爽| 亚洲国产免费看 | 四虎欧美 | 波多野结衣在线播放一区 | 西西人体4444www高清视频 | 欧美一级在线观看视频 | 久久免费黄色大片 | 国产精品女 | 日本精品久久久久中文字幕 | 国产999精品久久久久久绿帽 | 欧美日本啪啪无遮挡网站 | 国产免费一区二区三区最新6 | 97品白浆高清久久久久久 | 亚洲综合在线发布 | 国产精品精品久久久久久 | 国产精品久久久久久久久久久不卡 | 日韩不卡高清 | 久久视频网址 | 亚洲精品av在线 | 在线观看av小说 | 久精品视频免费观看2 | 日韩大片在线观看 | 91精品久久香蕉国产线看观看 | 亚洲国产影院av久久久久 | 香蕉看片 | 国产成人精品一区二 | 成年人毛片在线观看 | 天天射夜夜爽 | 国产手机免费视频 | 久草在线视频精品 | 成人四虎 | 狠狠干婷婷色 | 五月婷av | 911精品美国片911久久久 | 制服丝袜在线91 | 国产乱码精品一区二区蜜臀 | 亚洲精品乱码久久久一二三 | 国产伦精品一区二区三区… | 色多多在线观看 | 中文字幕国产在线 | 欧美性久久久 | 成年人视频免费在线播放 | 亚洲精品视频免费 | 国产剧情av在线播放 | 午夜少妇av | 免费视频久久 | 欧美激情精品久久久久久变态 | 日韩欧美精品在线观看 | 天天综合网在线 | 久久精品免费观看 | 亚洲精品网站在线 | 国产一级视频在线免费观看 | 国产xxxx做受性欧美88 | 国产成人精品久久亚洲高清不卡 | 国产精品福利一区 | www日| 亚洲精品乱码久久久一二三 | 在线视频精品播放 | av免费网站观看 | 香蕉影院在线播放 | 日韩免费在线观看视频 | 久久精品草 | 久久视频在线观看中文字幕 | 国产精品成人在线 | 国产综合在线观看视频 | 国产电影黄色av | 久久精品久久精品久久精品 | 特级毛片aaa | 亚洲精品美女久久久 | 在线观看免费视频你懂的 | 亚洲电影第一页av | 免费av观看网站 | 美女一级毛片视频 | 91av网址 | 特级毛片爽www免费版 | 粉嫩av一区二区三区四区五区 | 久久精品99国产精品亚洲最刺激 | 99国产情侣在线播放 | 深夜精品福利 | 久久成人国产精品 | 色在线中文字幕 | 久久综合免费视频影院 | 亚洲精品美女在线观看播放 | 九九九九九九精品 | 激情小说网站亚洲综合网 | 亚洲天堂网在线观看视频 | 国产成人久久久久 | 很污的网站 | 欧美成人亚洲 | 人人干人人模 | 69视频在线 | 在线看黄色av | 日韩av高清 | 99久久精品免费 | 日韩国产高清在线 | 欧美精品久久 | 久久免费福利 | 99精品一区二区三区 | 国产一区二区不卡视频 | 日本一区二区不卡高清 | 日本久久久影视 | 在线观看免费一级片 | 国产高清专区 | 久久综合九色欧美综合狠狠 | 懂色av一区二区在线播放 | 亚洲天堂视频在线 | 久久精品视频99 | 99久久夜色精品国产亚洲 | 最新中文字幕在线播放 | 狠狠色狠狠色综合日日小说 | 亚洲成人精品久久久 | 五月婷婷六月综合 | 91九色在线观看视频 | 欧美色图视频一区 | 涩涩在线 | 五月天亚洲综合小说网 | 欧美xxxx性xxxxx高清 | 日韩美女久久 | 久久久久在线观看 | 日本精品久久久久中文字幕 | 六月激情久久 | 午夜在线看片 | 中文字幕高清在线播放 | 亚州国产视频 | 日韩在线免费视频 | 亚洲五月婷 | 天天干人人干 | 偷拍福利视频一区二区三区 | 久久久久免费精品国产小说色大师 | 又黄又爽又湿又无遮挡的在线视频 | 免费视频 你懂的 | 亚洲视频电影在线 | 成人观看 | 91精品啪啪| 91丨九色丨91啦蝌蚪老版 | 久久草网 | 午夜视频在线观看网站 | 99久久久久久久久 | 国产精品一区二区电影 | 在线观看视频日韩 | 天堂va在线高清一区 | 欧美激情片在线观看 | 超碰最新网址 | 中文字幕 在线 一 二 | 五月综合激情婷婷 | 免费在线一区二区三区 | 日本在线观看一区 | 日韩成人看片 | 亚洲成av人片在线观看 | 欧美日韩国产网站 | 激情视频久久 | 免费在线观看av网址 | 欧美成人亚洲成人 | 在线导航av | 欧美亚洲专区 | a级国产乱理论片在线观看 伊人宗合网 | 最近中文字幕免费 | 欧美一级久久久 | 九九久久免费视频 | 特级xxxxx欧美| 久久视频二区 | 黄色一级在线视频 | 狠狠插狠狠干 | 黄色av三级在线 | 91精品啪在线观看国产81旧版 | 免费福利在线 | 日韩中文字幕在线观看 | 免费久久99精品国产婷婷六月 | 国产精品免费视频久久久 | 欧美精品在线视频观看 | 中文在线免费一区三区 | 六月激情久久 | av日韩在线网站 | 亚洲国产精品成人va在线观看 | 国产成人综 | 日韩二区三区在线 | 久久精品99久久 | 天天操导航 | 99精品视频99| 91网址在线看| 国产码电影 | 91视频免费国产 | 超碰公开在线 | 欧美一进一出抽搐大尺度视频 | 美女久久久久久久 | 国产成人久久精品一区二区三区 | 狠狠干夜夜| 丁香av | 超碰国产人人 | 91精品久久久久久综合乱菊 | 国产在线国偷精品产拍 | 国产精品系列在线播放 | 国产日韩精品一区二区在线观看播放 | 久久成年人 | 在线亚洲成人 | 日日爱视频 | 在线观看日韩免费视频 | 国产精品99久久久久久久久久久久 | 久久久三级视频 | 2019中文 | 一级淫片在线观看 | 99精品国产aⅴ | 免费福利在线 | 欧美黑人性爽 | 亚洲天天摸日日摸天天欢 | 欧美另类网站 | 男女激情网址 | 夜夜操狠狠干 | 国产精品视频大全 | av中文字幕在线播放 | 成年人免费av| 992tv在线观看 | 麻豆视频免费版 | 午夜三级影院 | 久久久免费观看视频 | 亚洲视频免费在线 | 99久久久久久国产精品 | 久久精品99北条麻妃 | 视频在线一区二区三区 | av在线进入 | 99久久电影 | 亚洲干 | 手机在线看永久av片免费 | 伊人久久av| 99精品国产免费久久久久久下载 | 天天射天天操天天干 | 国产 日韩 在线 亚洲 字幕 中文 | 亚洲欧美综合 | 免费十分钟 | 免费在线看成人av | av在线电影免费观看 | 在线观看视频黄 | 久草在线视频新 | 天天操天天操一操 | 99热精品在线观看 | 久久国产精品一区二区三区四区 | 免费精品在线观看 | 日韩av女优视频 | 亚洲乱码精品久久久久 | 国产精品网在线观看 | 在线一二三区 | 激情文学丁香 | 欧美久久99| 欧美一级片在线免费观看 | 麻豆视频成人 | 久久综合色综合88 | 精品91在线 | 国内久久精品 | 国产成人精品一区二区三区网站观看 | 天堂在线视频中文网 | 日韩av网页 | 99r在线视频| 337p西西人体大胆瓣开下部 | 色婷在线| 免费久久精品视频 | 精品日韩视频 | 欧美日韩国产精品爽爽 | 91精品国产综合久久久久久久 | 亚洲国产欧美在线人成大黄瓜 | 婷婷四房综合激情五月 | 久久精品xxx| 日韩久久久久久久 | 91精品在线观看视频 | 日本黄色免费在线 | 国产理论在线 | 91入口在线观看 | 国产精品麻豆视频 | 97在线视频网站 | 国产69精品久久久久久久久久 | 亚洲乱码精品久久久 | 最近在线中文字幕 | av黄色av | 激情图片区 | 免费视频你懂得 | 日韩久久视频 | 日韩毛片在线播放 | 六月婷操 | 久久综合欧美精品亚洲一区 | 在线观看日韩中文字幕 | 欧美国产日韩中文 | 爱射综合 | 狠狠狠的干 | 色av男人的天堂免费在线 | 色婷婷av在线 | av在线电影网站 | 久久久久成人精品 | 国产美女视频黄a视频免费 久久综合九色欧美综合狠狠 | 96久久| 亚洲精品国偷拍自产在线观看蜜桃 | 99成人在线视频 | 首页中文字幕 | 国产高清绿奴videos | 激情小说网站亚洲综合网 | 日本韩国中文字幕 | 色综合欧洲 | 黄av免费在线观看 | 在线观看免费一区 | 日韩久久精品一区 | 高清不卡毛片 | 国产夫妻自拍av | 亚洲欧洲成人精品av97 | 免费观看xxxx9999片 | 国产91精品一区二区麻豆亚洲 | 一本之道乱码区 | 精品999在线观看 | 国产小视频在线免费观看视频 | 99欧美视频| 日本在线视频网址 | 免费在线成人av | 精品国产一区二区三区久久久久久 | 国产精品女人网站 | 午夜电影av| 欧美在线日韩在线 | 奇米网在线观看 | 精品久久久久久国产91 | 欧美精品一区二区免费 | 麻豆传媒视频在线播放 | 日韩女同一区二区三区在线观看 | 日韩电影中文,亚洲精品乱码 | 日韩精品在线一区 | 中文字幕日本在线观看 | 久热国产视频 | www免费| 97成人资源 | 欧日韩在线 | 69xx视频 | 久久精品人人做人人综合老师 | 日韩久久久久久久久久久久 | 午夜三级在线 | 亚洲国产一区二区精品专区 | 久久人人爽人人爽人人 | 亚洲精品影院在线观看 | 在线黄色av | 亚洲黄色一级大片 | 国产视频精选 | 99久久精品国产一区二区成人 | 伊人婷婷综合 | 国产亚洲成av片在线观看 | 美女网站视频色 | 日韩视频免费 | 久久久久国产a免费观看rela | 中文字幕免费久久 | 欧美日韩激情视频8区 | 一区二区三区四区免费视频 | 中文字幕av专区 | 毛片99 | 久久精品日本啪啪涩涩 | 国产精品亚州 | 在线亚洲午夜片av大片 | 色久综合 | 天天操天天摸天天爽 | 亚洲欧洲中文日韩久久av乱码 | 91一区二区三区久久久久国产乱 | 91精品在线麻豆 | 国产精品久久久av | 狠狠婷婷| 五月婷婷色丁香 | 成年人免费av网站 | 免费亚洲黄色 | 中文字幕资源站 | 精品国产成人 | 激情五月看片 | 成av在线| 天天干,天天射,天天操,天天摸 | 在线国产视频观看 | 欧美精品三级在线观看 | 久章草在线 | 国产一级片播放 | 国产成人在线观看免费 | 日韩免费高清在线观看 | 国产在线观看黄 | 开心色婷婷 | 欧美色图视频一区 | 99欧美 | 日日躁夜夜躁aaaaxxxx | 亚洲欧美观看 | 日本丶国产丶欧美色综合 | 美女视频黄的免费的 | 欧美少妇的秘密 | 东方av免费在线观看 | 久久精品伊人 | 精品在线观看一区二区 |