日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > 数据库 >内容正文

数据库

Flink的Table API 与SQL介绍及调用

發布時間:2024/7/5 数据库 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Flink的Table API 与SQL介绍及调用 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1 概述

? ?DataSetAPI和DateStreamAPI是基于整個Flink的運行時環境做操作處理的,Table API和SQL是在DateStreamAPI上又包了一層。對于新版本的Blink在DateStream基礎上又包了一層實現了批流統一,上層執行環境都是基于流處理,做批流統一的查詢。Table API是流處理和批處理通用的關系型API,與常規SQL語言中將查詢指定為字符串不同,Table API查詢是以Java或Scala中的語言嵌入樣式來定義。 是一套內嵌在 Java 和 Scala 語言中的查詢API,它允許以非常直觀的方式組合來自一些關系運算符的查詢。

??從Flink 1.9開始,Flink為Table 和SQL API程序提供了兩種不同的planner :Blink planner 和the old planner。Blink planner 和the old planner的區別如下:

??(1)批流統一:Blink將批處理作業,視為流式處理的特殊情況。所以,blink不支持表和DataSet之間的轉換,批處理作業將不轉換為DataSet應用程序,而是跟流處理一樣,轉換為DataStream程序來處理。

??(2)因為批流統一,Blink planner也不支持BatchTableSource,而使用有界的StreamTableSource代替

??(3)Blink planner只支持全新的目錄,不支持已棄用的ExternalCatalog

??(4)old planner和Blink planner的FilterableTableSource實現不兼容。舊的planner會把PlannerExpressions下推到filterableTableSource中,而blink planner則會把Expressions下推

??(5)基于字符串的鍵值配置選項僅適用于Blink planner

??(6)PlannerConfig在兩個planner中的實現不同

??(7) Blink planner會將多個sink優化在一個DAG中(僅在TableEnvironment上受支持,而在StreamTableEnvironment上不受支持)。而舊planner的優化總是將每一個sink放在一個新的DAG中,其中所有DAG彼此獨立

??(8)舊的planner不支持目錄統計,而Blink planner支持

??需要添加的依賴

??根據目標編程語言的不同,您需要將Java或ScalaAPI添加到項目中,以便使用TableAPI&SQL來定義管道:

<!-- Either... --> <dependency><groupId>org.apache.flink</groupId><artifactId>flink-table-api-java-bridge_2.11</artifactId><version>1.10.0</version><scope>provided</scope> </dependency> <!-- or... --> <dependency><groupId>org.apache.flink</groupId><artifactId>flink-table-api-scala-bridge_2.11</artifactId><version>1.10.0</version><scope>provided</scope> </dependency>

??您想在IDE中本地運行TableAPI&SQL程序,則必須添加以下一組模塊,具體取決于使用的planner:

<!-- Either... (for the old planner that was available before Flink 1.9) --> <dependency><groupId>org.apache.flink</groupId><artifactId>flink-table-planner_2.11</artifactId><version>1.10.0</version><scope>provided</scope> </dependency> <!-- or.. (for the new Blink planner) --> <dependency><groupId>org.apache.flink</groupId><artifactId>flink-table-planner-blink_2.11</artifactId><version>1.10.0</version><scope>provided</scope> </dependency>

???在內部,表生態系統的一部分是在Scala中實現的。因此確保為批處理和流應用程序添加以下依賴項:

<dependency><groupId>org.apache.flink</groupId><artifactId>flink-streaming-scala_2.11</artifactId><version>1.10.0</version><scope>provided</scope> </dependency>

2 Table API 和 SQL 的程序結構

??所有用于批處理和流處理的Table API和SQL程序都遵循相同的結構,與流式處理的程序結構類似

//1 創建表的執行環境 // create a TableEnvironment for specific planner batch or streaming val tableEnv = ... // see "Create a TableEnvironment" section//2 創建表,讀取數據 tableEnv.connect(...).createTemporaryTable("table1")//3 注冊表,用于輸出計算結果 tableEnv.connect(...).createTemporaryTable("outputTable")//4.1 通過Table API查詢得到結果表 val tapiResult = tableEnv.from("table1").select(...)//4.2 通過SQL查詢得到結果表 val sqlResult = tableEnv.sqlQuery("SELECT ... FROM table1 ...")//5 將結果表寫入到輸出表 tapiResult.insertInto("outputTable")// execute tableEnv.execute("scala_job")

3 創建TableEnvironment

??創建表的執行環境,需要將 flink 流處理的執行環境傳入

val tableEnv = StreamTableEnvironment.create(env)

??TableEnvironment 是 flink 中集成 Table API 和 SQL 的核心概念,所有對表的操作都基于 TableEnvironment :注冊 Catalog(可以認為是對表的管理的結構);在 Catalog 中注冊表;執行 SQL 查詢;注冊用戶自定義函數(UDF);轉換DataStream或DataSet變成Table;保存對 ExecutionEnvironment 或 StreamExecutionEnvironment 的引用

??在老版本Table總是綁定到特定的TableEnvironment。不可能在同一個查詢中組合不同TableEnvironment的表,例如加入或合并它們。

??TableEnvironment創建通過調用靜態的BatchTableEnvironment.create()或StreamTableEnvironment.create()方法的StreamExecutionEnvironment或者ExecutionEnvironment還有一個可選的TableConfig。這個TableConfig可用于配置TableEnvironment或自定義查詢優化和轉換過程

??如果兩個planner JAR都位于類路徑(默認行為)上,則應顯式設置在當前程序中使用的planner。

// ********************** // FLINK STREAMING QUERY 配置老版本 planner 的流式查詢 // ********************** import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import org.apache.flink.table.api.EnvironmentSettings import org.apache.flink.table.api.scala.StreamTableEnvironmentval fsSettings = EnvironmentSettings.newInstance().useOldPlanner().inStreamingMode().build() val fsEnv = StreamExecutionEnvironment.getExecutionEnvironment val fsTableEnv = StreamTableEnvironment.create(fsEnv, fsSettings) // or val fsTableEnv = TableEnvironment.create(fsSettings)// ****************** // FLINK BATCH QUERY 配置老版本 planner 的批式查詢 // ****************** import org.apache.flink.api.scala.ExecutionEnvironment import org.apache.flink.table.api.scala.BatchTableEnvironmentval fbEnv = ExecutionEnvironment.getExecutionEnvironment val fbTableEnv = BatchTableEnvironment.create(fbEnv)// ********************** // BLINK STREAMING QUERY 配置 blink planner 的流式查詢 // ********************** import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import org.apache.flink.table.api.EnvironmentSettings import org.apache.flink.table.api.scala.StreamTableEnvironmentval bsEnv = StreamExecutionEnvironment.getExecutionEnvironment val bsSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build() val bsTableEnv = StreamTableEnvironment.create(bsEnv, bsSettings) // or val bsTableEnv = TableEnvironment.create(bsSettings)// ****************** // BLINK BATCH QUERY 配置 blink planner 的批式查詢 // ****************** import org.apache.flink.table.api.{EnvironmentSettings, TableEnvironment}val bbSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inBatchMode().build() val bbTableEnv = TableEnvironment.create(bbSettings)

??注意:老版本可以在代碼里面定義不同的環境,老版本處理過程中可以有批處理和流處理環境。一張批處理環境,一張流處理環境是不能做join查詢的,所有針對表的操作,必須是基于同一個執行環境的。

??如果只有一個Planner/lib目錄,可以使用useAnyPlanner (use_any_planner(用于python)創建特定的EnvironmentSettings.

4 在Catalog中創建表

??一個TableEnvironment維護使用標識符創建的表的Catalog的map,也就是TableEnvironment 可以注冊目錄 Catalog,并可以基于 Catalog 注冊表。表(Table)是由一個“標識符”(identifier)來指定的,由3部分組成:Catalog名、數據庫(database)名和對象名

??表可以是常規的,也可以是虛擬的視圖,View。常規表(Table):一般可以用來描述外部數據,比如文件、數據庫表或消息隊列的數據,也可以直接從 DataStream轉換而來。視圖(View):可以從現有的表中創建,通常是 table API 或者 SQL 查詢的一個結果集

??表可以是臨時的,并且與單個Flink會話的生命周期相關聯,或者是永久的,并且跨多個Flink會話和集群可見。永久表:需要Catalog(如Hive Metastore)來維護有關表的元數據。一旦創建了永久表,它對連接到目錄的任何Flink會話都是可見的,并且將繼續存在,直到該表顯式刪除為止。臨時表:總是存儲在內存中,并且僅在Flink會話期間才存在。這些表在其他會話中不可見。它們不綁定到任何目錄或數據庫,但可以在其中的名稱空間中創建。如果刪除臨時表的相應數據庫,則不會刪除它們。

4.1 創建表

4.1.1 Virtual Tables

??Table API對應于虛擬的表,它封裝了一個邏輯查詢計劃。它可以在Catalog中創建,如下所示:

// get a TableEnvironment val tableEnv = ... // see "Create a TableEnvironment" section// table is the result of a simple projection query val projTable: Table = tableEnv.from("X").select(...)// register the Table projTable as table "projectedTable" tableEnv.createTemporaryView("projectedTable", projTable)

??注意:Table對象類似于關系數據庫系統的VIEW,即定義Table未優化,當另一個查詢引用已注冊的Table查詢時,將內聯。如果多個查詢引用同一個已注冊的Table,它將為每個引用查詢內聯并多次執行,即注冊的結果Table不被分享。

4.1.2 Connector Tables

??可以創建一個TABLE從關系數據庫中所知道的連接器申報。連接器描述存儲表數據的外部系統,可以在這里聲明諸如Kafka之類的存儲系統或常規文件系統。其實就是TableEnvironment 可以調用 .connect() 方法,連接外部系統,并調用 .createTemporaryTable() 方法,在 Catalog 中注冊表

tableEnvironment.connect(...) // 定義表的數據來源,與外部系統建立連接.withFormat(...) // 定義數據格式化方法.withSchema(...) // 定義表結構.inAppendMode().createTemporaryTable("MyTable") // 創建臨時表

??創建 Table 從文件中讀取如下:

tableEnv.connect(new FileSystem().path(“YOUR_FILE_PATH”)) // 定義到文件系統的連接.withFormat(new Csv()) // 定義以csv格式進行數據格式化.withSchema(new Schema() // 定義表結構.field("id", DataTypes.STRING()).field("timestamp", DataTypes.BIGINT()).field("temperature", DataTypes.DOUBLE())) .createTemporaryTable("sensorTable") // 創建臨時表

4.2 表的標識符identifier

??Flink中表由一個identifier指定,identifier由Catalog名、數據庫(database)名和對象名(表名)組成。用戶可以將其中的一Catalog和一個database設置為“當前目錄”和“當前數據庫”。使用它們,上面提到的3部分標識符中的前兩部分可以是可選的,如果不提供它們,則將引用當前目錄和當前數據庫。用戶可以通過表API或SQL切換當前目錄和當前數據庫。

??標識符遵循SQL要求,這意味著可以使用回勾字符(`)。此外,必須轉義所有SQL保留關鍵字。

Scala // get a TableEnvironment val tEnv: TableEnvironment = ...; tEnv.useCatalog("custom_catalog") tEnv.useDatabase("custom_database")val table: Table = ...;// register the view named 'exampleView' in the catalog named 'custom_catalog' // in the database named 'custom_database' tableEnv.createTemporaryView("exampleView", table)// register the view named 'exampleView' in the catalog named 'custom_catalog' // in the database named 'other_database' tableEnv.createTemporaryView("other_database.exampleView", table)// register the view named 'View' in the catalog named 'custom_catalog' in the // database named 'custom_database'. 'View' is a reserved keyword and must be escaped. tableEnv.createTemporaryView("`View`", table)// register the view named 'example.View' in the catalog named 'custom_catalog' // in the database named 'custom_database' tableEnv.createTemporaryView("`example.View`", table)// register the view named 'exampleView' in the catalog named 'other_catalog' // in the database named 'other_database' tableEnv.createTemporaryView("other_catalog.other_database.exampleView", table)

5 表的查詢

5.1 Table API

??Table API 是集成在 Scala 和 Java 語言內的查詢 API。

??Table API 基于代表“表”的 Table 類,并提供一整套操作處理的方法 API;這些方法會返回一個新的 Table 對象,表示對輸入表應用轉換操作的結果,有些關系型轉換操作,可以由多個方法調用組成,構成鏈式調用結構

??Table API 文檔:https://ci.apache.org/projects/flink/flink-docs-release-1.10/dev/table/tableApi.html

// get a TableEnvironment val tableEnv = ... // see "Create a TableEnvironment" section// register Orders table// scan registered Orders table val orders = tableEnv.from("Orders") // compute revenue for all customers from France val revenue = orders.filter('cCountry === "FRANCE").groupBy('cID, 'cName).select('cID, 'cName, 'revenue.sum AS 'revSum)// emit or convert Table // execute query

注意:Scala Table API使用Scala符號,前面加了一個單引號’,這是Table API中定義的Expression類型的寫法,可以很方便地表示一個表中的字段。字段可以直接全部用雙引號引起來,也可以用半邊單引號+字段名的方式。Table API使用Scala實現。確保導入org.apache.flink.api.scala._和org.apache.flink.table.api.scala._為了使用Scala隱式轉換。

5.2 SQL

??Flink 的 SQL 集成,基于實現 了SQL 標準的 Apache Calcite,在 Flink 中,用常規字符串來定義 SQL 查詢語句,SQL 查詢的結果,也是一個新的 Table。官方Flink對流表和批處理表的SQL支持地址:https://ci.apache.org/projects/flink/flink-docs-release-1.10/dev/table/sql/index.html

??指定查詢并將結果作為Table如下:

// get a TableEnvironment val tableEnv = ... // see "Create a TableEnvironment" section// register Orders table// compute revenue for all customers from France val revenue = tableEnv.sqlQuery("""|SELECT cID, cName, SUM(revenue) AS revSum|FROM Orders|WHERE cCountry = 'FRANCE'|GROUP BY cID, cName""".stripMargin)// emit or convert Table // execute query

??指定將其結果插入到已注冊表中的更新查詢如下:

// get a TableEnvironment val tableEnv = ... // see "Create a TableEnvironment" section// register "Orders" table // register "RevenueFrance" output table// compute revenue for all customers from France and emit to "RevenueFrance" tableEnv.sqlUpdate("""|INSERT INTO RevenueFrance|SELECT cID, cName, SUM(revenue) AS revSum|FROM Orders|WHERE cCountry = 'FRANCE'|GROUP BY cID, cName""".stripMargin)// execute query

??Table API和SQL查詢可以很容易地混合在一起使用,因為兩者都返回Table對象:Table API查詢可以基于SQL查詢返回的Table對象;可以根據Table API查詢的結果定義SQL查詢注冊結果表在TableEnvironment并在FROM子句的SQL查詢。

6 輸出表

6.1 表的輸出

??表的輸出,是通過將數據寫入 TableSink 來實現的,TableSink 是一個通用接口,可以支持不同的文件格式(如CSV、Apache Parquet、Apache Avro)、存儲數據庫(如如JDBC、Apache HBASE、Apache Cassandra、Elasticsearch)和消息隊列(如如Apache Kafka、RabbitMQ)。

??一個batch Table只能寫入BatchTableSink,而Streaming Table需要一個AppendStreamTableSink或RetractStreamTableSink或UpsertStreamTableSink。

??輸出表最直接的方法,就是通過 Table.insertInto() 方法將一個 Table 寫入注冊過的 TableSink 中

// get a TableEnvironment val tableEnv = ... // see "Create a TableEnvironment" section// create an output Table val schema = new Schema().field("a", DataTypes.INT()).field("b", DataTypes.STRING()).field("c", DataTypes.LONG())tableEnv.connect(new FileSystem("/path/to/file")).withFormat(new Csv().fieldDelimiter('|').deriveSchema()).withSchema(schema).createTemporaryTable("CsvSinkTable")// compute a result Table using Table API operators and/or SQL queries val result: Table = ...// emit the result Table to the registered TableSink result.insertInto("CsvSinkTable")// execute the program

6.2 更新模式

??對于流式查詢,需要聲明如何在表和外部連接器之間執行轉換,與外部系統交換的消息類型,由更新模式(Update Mode)指定。有追加(Append),撤回(Retract),更新插入(Upsert)三種模式

??追加(Append)模式:表只做插入操作,和外部連接器只交換插入(Insert)消息。以前發出的結果永遠不會更新,如果更新或刪除操作使用追加模式會失敗報錯。

??撤回(Retract)模式:表和外部連接器交換添加(Add)和撤回(Retract)消息,插入操作(Insert)編碼為 Add 消息;刪除(Delete)編碼為 Retract 消息;更新(Update)編碼為上一條的 Retract 和下一條的 Add 消息。返回值是boolean類型。它用true或false來標記數據的插入和撤回,返回true代表數據插入,false代表數據的撤回。

??更新插入(Upsert)模式:更新和插入都被編碼為 Upsert 消息;刪除編碼為 Delete 消息

??撤回(Retract)和更新插入(Upsert)的區別:

??輸出到文件如下:Retract不能定義key,這一點跟upsert模式完全不同;Update操作需要一個唯一的key,通過這個key可以傳遞更新消息。為了正確應用消息,外部連接器需要知道這個唯一key的屬性,是用單個消息編碼的,所以效率會更高。

6.3 輸出到文件

tableEnv.connect(new FileSystem().path("/path/to/file") // 定義到文件系統的連接.withFormat(new Csv()).withSchema(new Schema().field("id", DataTypes.STRING()).field("temp", DataTypes.Double())) .createTemporaryTable("outputTable") // 創建臨時表resultTable.insertInto("outputTable") // 輸出表

6.4 輸出到Kafka

??可以創建 Table 來描述 kafka 中的數據,作為輸入或輸出的 TableSink

tableEnv.connect(new Kafka().version("0.11").topic("sinkTest").property("zookeeper.connect", "localhost:2181").property("bootstrap.servers", "localhost:9092") ).withFormat( new Csv() ).withSchema( new Schema().field("id", DataTypes.STRING()).field("temp", DataTypes.DOUBLE())).createTemporaryTable("kafkaOutputTable")resultTable.insertInto("kafkaOutputTable")

6.5 輸出到ElasticSearch

??ElasticSearch的connector可以在upsert(update+insert,更新插入)模式下操作,這樣就可以使用Query定義的鍵(key)與外部系統交換UPSERT/DELETE消息。對于“僅追加”(append-only)的查詢,connector還可以在append 模式下操作,這樣就可以與外部系統只交換insert消息。es目前支持的數據格式,只有Json,而flink本身并沒有對應的支持,所以還需要引入依賴:

<dependency><groupId>org.apache.flink</groupId><artifactId>flink-json</artifactId><version>1.10.0</version> </dependency> tableEnv.connect(new Elasticsearch().version("6").host("localhost", 9200, "http").index("test").documentType("temp") ).inUpsertMode() // 指定是 Upsert 模式.withFormat(new Json()).withSchema( new Schema().field("id", DataTypes.STRING()).field("count", DataTypes.BIGINT())).createTemporaryTable("esOutputTable")aggResultTable.insertInto("esOutputTable")

6.6 輸出到MySql

??Flink專門為Table API的jdbc連接提供了flink-jdbc連接器,我們需要先引入依賴:

<dependency><groupId>org.apache.flink</groupId><artifactId>flink-jdbc_2.11</artifactId><version>1.10.0</version> </dependency>

??jdbc連接的代碼實現比較特殊,因為沒有對應的java/scala類實現ConnectorDescriptor,所以不能直接tableEnv.connect()。不過Flink SQL留下了執行DDL的接口:tableEnv.sqlUpdate()

val sinkDDL: String ="""|create table jdbcOutputTable (| id varchar(20) not null,| cnt bigint not null|) with (| 'connector.type' = 'jdbc',| 'connector.url' = 'jdbc:mysql://localhost:3306/test',| 'connector.table' = 'sensor_count',| 'connector.driver' = 'com.mysql.jdbc.Driver',| 'connector.username' = 'root',| 'connector.password' = '123456'|)""".stripMargintableEnv.sqlUpdate(sinkDDL) aggResultSqlTable.insertInto("jdbcOutputTable")

7 Query的解釋和執行

??Table API提供了一種機制來解釋(Explain)計算表的邏輯和優化查詢計劃。這是通過TableEnvironment.explain(table)方法或TableEnvironment.explain()方法完成的。

??explain方法會返回一個字符串,描述三個計劃:①未優化的邏輯查詢計劃②優化后的邏輯查詢計劃③實際執行計劃

??查看執行計劃如下

val explaination: String = tableEnv.explain(resultTable) println(explaination)

??Query的解釋和執行過程,老planner和blink planner是不一樣的。整體來講,Query都會表示成一個邏輯查詢計劃,然后分兩步解釋:①優化查詢計劃②解釋成 DataStream 或者 DataSet程序

??而Blink版本是批流統一的,所以所有的Query,只會被解釋成DataStream程序;另外在批處理環境TableEnvironment下,Blink版本要到tableEnv.execute()執行調用才開始解釋。

8 Table與DataStream,DataSet的集成

??兩種planners都可以與DataStream API集成,只有老的planner才能與DataSet API集成。Scala Table API提供了DataSet、DataStream和Table的隱式轉換,通過導入org.apache.flink.table.api.scala._

8.1 從DataStream或DataSet創建視圖

??DataStream或DataSet可以在TableEnvironment作為一個視圖,只能注冊為臨時視圖

// get TableEnvironment // registration of a DataSet is equivalent val tableEnv: StreamTableEnvironment = ... // see "Create a TableEnvironment" sectionval stream: DataStream[(Long, String)] = ...// register the DataStream as View "myTable" with fields "f0", "f1" tableEnv.createTemporaryView("myTable", stream)// register the DataStream as View "myTable2" with fields "myLong", "myString" tableEnv.createTemporaryView("myTable2", stream, 'myLong, 'myString)

8.2 將DataStream或DataSet轉換成表

??DataStream或DataSet可以直接轉換為Table,而不是注冊在TableEnvironment。

// get TableEnvironment // registration of a DataSet is equivalent val tableEnv = ... // see "Create a TableEnvironment" sectionval stream: DataStream[(Long, String)] = ...// convert the DataStream into a Table with default fields '_1, '_2 val table1: Table = tableEnv.fromDataStream(stream)// convert the DataStream into a Table with fields 'myLong, 'myString val table2: Table = tableEnv.fromDataStream(stream, 'myLong, 'myString)

??可以基于一個DataStream,先流式地讀取數據源,然后map成樣例類,再把它轉成Table。Table的列字段(column fields),就是樣例類里的字段,這樣就不用再定義schema。

??代碼中實現非常簡單,直接用tableEnv.fromDataStream()就可以了。默認轉換后的 Table schema 和 DataStream 中的字段定義一一對應,也可以單獨指定出來。

??這就允許我們更換字段的順序、重命名,或者只選取某些字段出來,相當于做了一次map操作(或者Table API的 select操作)

case class WC(id: String, timestamp: Long, count: Double)val inputStream: DataStream[String] = env.readTextFile("/path/to/file") val dataStream: DataStream[WC] = inputStream.map(data => {val dataArray = data.split(",")SensorReading(dataArray(0), dataArray(1).toLong, dataArray(2).toDouble)})val wcTable: Table = tableEnv.fromDataStream(dataStream)

??數據類型與 Table schema的對應:上面DataStream 中的數據類型,與表的 Schema 之間的對應關系,是按照樣例類中的字段名來對應的(name-based mapping),所以還可以用as做重命名。另外一種對應方式是,直接按照字段的位置來對應(position-based mapping),對應的過程中,就可以直接指定新的字段名了。

??基于名稱的對應:

val wcTable = tableEnv.fromDataStream(dataStream, 'timestamp as 'ts, 'id as 'myId, 'temperature)

??基于位置的對應:

val wcTable = tableEnv.fromDataStream(dataStream, 'myId, 'ts)

??Flink的DataStream和 DataSet API支持多種類型。組合類型,比如元組(內置Scala和Java元組)、POJO、Scala case類和Flink的Row類型等,允許具有多個字段的嵌套數據結構,這些字段可以在Table的表達式中訪問。其他類型,則被視為原子類型。

??元組類型和原子類型,一般用位置對應會好一些;用名稱對應的話:元組類型,默認的名稱是 “_1”, “_2”;而原子類型,默認名稱是 ”f0”。

8.3 將表轉換成DataStream

??表可以轉換為DataStream或DataSet。這樣,自定義流處理或批處理程序就可以繼續在 Table API或SQL查詢的結果上運行了。

??將表轉換為DataStream或DataSet時,需要指定生成的數據類型,即要將表的每一行轉換成的數據類型。通常,最方便的轉換類型就是Row。當然,因為結果的所有字段類型都是明確的,我們也經常會用元組類型來表示。

??表作為流式查詢的結果,是動態更新的。所以,將這種動態查詢轉換成的數據流,同樣需要對表的更新操作進行編碼,進而有不同的轉換模式。Table API中表到DataStream有兩種模式:①追加模式(Append Mode):用于表只會被插入(Insert)操作更改的場景②撤回模式(Retract Mode):用于任何場景。有些類似于更新模式中Retract模式,它只有Insert和Delete兩類操作。得到的數據會增加一個Boolean類型的標識位(返回的第一個字段),用它來表示到底是新增的數據(Insert),還是被刪除的數據(老數據, Delete)。

// get TableEnvironment. // registration of a DataSet is equivalent val tableEnv: StreamTableEnvironment = ... // see "Create a TableEnvironment" section// Table with two fields (String name, Integer age) val table: Table = ...// convert the Table into an append DataStream of Row val dsRow: DataStream[Row] = tableEnv.toAppendStream[Row](table)// convert the Table into an append DataStream of Tuple2[String, Int] val dsTuple: DataStream[(String, Int)] dsTuple = tableEnv.toAppendStream[(String, Int)](table)// convert the Table into a retract DataStream of Row. // A retract stream of type X is a DataStream[(Boolean, X)]. // The boolean field indicates the type of the change. // True is INSERT, false is DELETE. val retractStream: DataStream[(Boolean, Row)] = tableEnv.toRetractStream[Row](table)

??注意:一般沒有經過groupby之類聚合操作,可以直接用 toAppendStream 來轉換;而如果經過了聚合,有更新操作,一般就必須用 toRetractDstream

總結

以上是生活随笔為你收集整理的Flink的Table API 与SQL介绍及调用的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

日韩欧美一区二区在线 | 久久毛片高清国产 | 欧美一区二区伦理片 | www激情网 | 九九九九九国产 | 少妇超碰在线 | 国产少妇在线观看 | 91在线在线观看 | 免费黄色小网站 | 91精品视频导航 | 久久精品4 | 久久亚洲影视 | 国产精品欧美 | 日本最新高清不卡中文字幕 | 午夜久久久久久久久久久 | 久久精品5 | 欧美 日韩 性 | 中文字幕国产精品一区二区 | 激情五月开心 | 久99久精品视频免费观看 | 这里只有精品视频在线观看 | 黄色影院在线免费观看 | 91亚色视频在线观看 | 91精品在线播放 | 天天做日日做天天爽视频免费 | 国产精品久久久久久久久久东京 | 最新日韩在线观看视频 | 91麻豆精品国产自产在线 | 久久电影国产免费久久电影 | 中文乱幕日产无线码1区 | 美女久久久久久久 | 国产精品一区二区三区视频免费 | 天天操天天爱天天干 | 日韩欧美一区二区在线观看 | 久久久久国产精品厨房 | 国产最顶级的黄色片在线免费观看 | 97在线观看 | 69久久夜色精品国产69 | 国产乱码精品一区二区蜜臀 | 亚洲国产中文字幕在线 | 久保带人| av免费在线免费观看 | 最近高清中文字幕在线国语5 | 欧美另类性| 久久九九免费视频 | 日韩电影在线观看一区二区三区 | 亚洲狠狠操 | 亚洲国产精品久久久久久 | av在线播放中文字幕 | 国产精品高潮呻吟久久av无 | 天堂久久电影网 | 国产成人av在线影院 | av资源网在线播放 | 天天插日日射 | 蜜桃av人人夜夜澡人人爽 | 国产在线a免费观看 | 亚洲黄色在线播放 | 97超碰在线久草超碰在线观看 | 日韩中文字幕免费看 | 看污网站 | 狠狠地日 | 亚洲免费在线播放视频 | 国产精品观看在线亚洲人成网 | 久久国产精品第一页 | 99亚洲国产精品 | 久草视频在线新免费 | 国产色视频123区 | 中文字幕在线观看不卡 | 欧美精品中文 | 日韩高清av在线 | 久久久久久久久亚洲精品 | 久久 在线 | 五月天婷婷视频 | 国产精品乱看 | 精品国产乱码 | 江苏妇搡bbbb搡bbbb | 在线国产欧美 | 国产精品久久综合 | 国产精品久久久久av免费 | 在线欧美国产 | 久久视频在线免费观看 | 日本公妇色中文字幕 | 国产精品丝袜久久久久久久不卡 | 亚洲精品福利在线 | 日韩免费b | 色婷婷激情电影 | 国产手机免费视频 | 国产亚洲午夜高清国产拍精品 | 黄p在线播放| 91桃色在线免费观看 | 国产综合片 | 久久久国产精品成人免费 | 欧美一二在线 | 美女一二三区 | 日本视频高清 | 精品免费视频 | 欧美做受高潮1 | 亚洲91精品在线观看 | 在线亚洲精品 | 99精品国产高清在线观看 | 国产一区高清在线观看 | 亚州免费视频 | 日韩成人免费在线电影 | 色婷婷www | 91av网站在线观看 | 精品欧美一区二区在线观看 | 最近免费观看的电影完整版 | 91黄站| 91精品国产92久久久久 | 亚洲精品色婷婷 | 91人人爽久久涩噜噜噜 | 伊香蕉大综综综合久久啪 | 国产又粗又猛又爽又黄的视频免费 | 亚洲精品欧洲精品 | 亚洲视频精品 | 久久综合久久综合这里只有精品 | 亚洲高清视频在线观看 | 91精品国产99久久久久久红楼 | 亚洲最大成人免费网站 | 成人观看视频 | 久久福利电影 | 午夜视频久久久 | 久久久69| 成人一级片在线观看 | 97超碰免费在线 | 色资源网在线观看 | 综合色久 | 欧美精品少妇xxxxx喷水 | 丁香在线 | 六月婷色| 99久久精品国产一区二区成人 | 激情影音先锋 | 九色91在线视频 | 午夜精品麻豆 | 99热这里精品 | 久久久久日本精品一区二区三区 | 91香蕉视频在线下载 | 欧美精品成人在线 | 亚洲精品高清在线观看 | 永久av免费在线观看 | 91麻豆视频网站 | 99热精品国产一区二区在线观看 | av在线观| 国产原创在线视频 | 九热精品| 欧洲色综合 | 99久久精品无免国产免费 | 成人免费色 | av成人黄色 | 国产在线观看av | 99热在线国产精品 | 曰本免费av | 天天干夜夜爱 | 免费在线观看成人av | 国产91勾搭技师精品 | 九九av| 日韩黄色在线观看 | 最近中文字幕免费视频 | 久久一区二区三区超碰国产精品 | 午夜精品一区二区三区可下载 | 91九色蝌蚪国产 | 天天看天天干天天操 | 麻豆传媒视频观看 | 91免费高清视频 | 国产精品国产亚洲精品看不卡15 | 麻花豆传媒mv在线观看网站 | 伊人网综合在线观看 | 在线观看视频在线观看 | 操操操夜夜操 | 国产精品一区二区三区久久 | 日韩偷拍精品 | 日韩视频欧美视频 | 日本精品在线视频 | 天天综合导航 | 色综合久久精品 | 99久久这里有精品 | 久久草在线免费 | 91成人精品观看 | 中文字幕大全 | 四虎最新域名 | 久久精品国产一区二区 | 91精品国产欧美一区二区 | 久久91久久久久麻豆精品 | 久久久久国产免费免费 | 亚洲伦理电影在线 | av一区在线播放 | 九九热精品视频在线播放 | 亚洲区另类春色综合小说 | 精品国产一区二区三区四 | 国产女人18毛片水真多18精品 | 美女免费网站 | 日韩在线网 | 免费看黄在线看 | 国产亚洲精品xxoo | 亚洲黄色在线免费观看 | av三级在线免费观看 | 久久久久一区二区三区四区 | 国产精品99久久久久久大便 | 久草精品国产 | 国产亚洲精品美女久久 | 韩日精品中文字幕 | 久久久香蕉视频 | 天天草天天插 | 在线视频欧美精品 | 国产又粗又猛又黄又爽的视频 | 毛片网在线 | 伊人久久国产 | 日韩午夜电影网 | 激情五月综合网 | 精品一区电影 | 国产亚洲视频在线 | 国产精品久久久久久久久久东京 | 深爱婷婷激情 | 国产精品国产三级国产专区53 | 91热| 国产一性一爱一乱一交 | 日韩专区av | www.色午夜.com | 日本不卡久久 | 91精品蜜桃 | 国产成人三级在线观看 | 国产又黄又爽又猛视频日本 | 久久久综合精品 | 九精品 | 久久久这里有精品 | 97色在线观看免费视频 | 麻豆视频大全 | a天堂最新版中文在线地址 久久99久久精品国产 | 日日夜夜网 | 国产精品久久久久久久久久久久冷 | 涩涩爱夜夜爱 | 91精品视频导航 | 美女性爽视频国产免费app | 天天爽夜夜爽人人爽曰av | 波多野结衣精品 | 久久论理 | 中文字幕4| 人人超在线公开视频 | 欧美成人高清 | 久草在线观 | 国内外激情视频 | 久草久热 | 永久免费精品视频网站 | 日韩一区二区三 | 狠狠的日日| av免费在线观看1 | 国精产品一二三线999 | 91欧美国产 | 免费看国产精品 | 亚洲天堂香蕉 | 久久国产电影 | 国产成人一二三 | 黄色网在线免费观看 | 亚洲成av人片在线观看无 | 在线岛国av| 久久免费视频这里只有精品 | 四虎影视www | 久久色在线播放 | 在线观看视频一区二区三区 | 国产午夜精品视频 | 色综合久久精品 | 经典三级一区 | 国产三级精品在线 | 久要激情网 | 欧美精品一级视频 | 国产高清视频免费观看 | 黄色a大片 | 在线观看 国产 | 国产黄色观看 | 亚洲婷婷伊人 | 成年人视频在线免费 | 欧洲成人av | 精品久久毛片 | 97超碰国产精品女人人人爽 | 国产精品久久久区三区天天噜 | 午夜av大片 | 91片在线观看 | 婷婷午夜激情 | 麻豆国产精品永久免费视频 | 依人成人综合网 | 久久亚洲精品电影 | 久久精品www人人爽人人 | 最近能播放的中文字幕 | 久久久国产精品人人片99精片欧美一 | 中文字幕在线国产 | 国产乱老熟视频网88av | 91精品一区二区三区蜜桃 | 婷婷精品国产欧美精品亚洲人人爽 | 成人欧美日韩国产 | 99在线观看视频 | 国产在线观看中文字幕 | 国产二区免费视频 | 射射色 | 亚洲一区二区精品 | 热久久最新地址 | 欧美日韩3p| 一级免费看 | 西西大胆啪啪 | 婷婷国产视频 | 亚洲a免费 | .精品久久久麻豆国产精品 亚洲va欧美 | 最新日韩在线观看 | 偷拍久久久 | 国产成人99久久亚洲综合精品 | 国产福利一区二区三区在线观看 | 日韩在线观看不卡 | 高清不卡一区二区在线 | 欧美人人 | 91福利试看 | 亚洲永久精品在线 | 亚洲春色综合另类校园电影 | 日本中文字幕观看 | 97激情影院 | 五月开心六月伊人色婷婷 | 色网站在线免费观看 | 国产美腿白丝袜足在线av | 国产精品网站一区二区三区 | 园产精品久久久久久久7电影 | 欧美中文字幕第一页 | 91高清免费在线观看 | 麻豆传媒在线免费看 | 人人澡视频 | av免费看av| 国产午夜精品一区二区三区在线观看 | 天天干天天拍天天操天天拍 | 天天操福利视频 | 成人av影视在线 | 顶级欧美色妇4khd | 蜜桃视频成人在线观看 | 午夜国产一区二区三区四区 | 亚洲精品视频免费在线 | 久免费 | 亚洲视频电影在线 | 日韩精品一区二区三区第95 | 免费观看av | 四虎www| 成人作爱视频 | 色搞搞| 国产色区| 亚洲视频免费在线 | 天天爽夜夜爽精品视频婷婷 | 顶级bbw搡bbbb搡bbbb | 日韩中文字幕网站 | 日日碰狠狠添天天爽超碰97久久 | 六月色| 天天操夜 | 亚洲成人黄色在线观看 | 国产精品亚洲精品 | 91完整版| 天天操天天操天天操天天操天天操天天操 | 麻豆影视网 | 成人av电影免费观看 | 91毛片在线 | 久久综合九色综合久99 | 亚洲五月综合 | 国产视 | 毛片888 | www免费看 | 免费激情网 | 国产91精品一区二区绿帽 | 国产成人香蕉 | 国产黄a三级三级三级三级三级 | 成人免费视频在线观看 | 日韩精品视频一二三 | 亚洲国产激情 | 久久国产品| 国产97在线观看 | 国产五月天婷婷 | 97超碰资源网 | 国产日韩欧美在线影视 | 韩国一区二区三区在线观看 | 日韩在线视频网址 | 亚洲国产精品999 | 久久人人爽人人爽人人片av软件 | 久久一区二区免费视频 | 日韩一区视频在线 | 国产 色| 毛片网在线观看 | 久久久久久网址 | 91tv国产成人福利 | 91在线一区二区 | 日韩精品一区二区电影 | 波多野结衣在线播放一区 | 久久久精品国产免费观看一区二区 | 成人h电影在线观看 | 日韩在线观看第一页 | 国产精品一区在线观看你懂的 | 亚洲视频一 | 中文字幕免费不卡视频 | 天天碰天天操 | 日本精品一区二区 | 爱色av.com | 婷婷激情综合五月天 | 亚洲国产成人精品在线观看 | 国产精品自在线拍国产 | 综合色中色 | 亚洲电影久久 | 国产91精品看黄网站在线观看动漫 | 亚洲精品观看 | 999国产在线 | 国产婷婷| av中文字幕免费在线观看 | 99久久免费看 | 国产亚洲精品久久久久久久久久 | 天天爽人人爽 | 在线观看视频福利 | 日韩av黄| 91精品视频免费在线观看 | 中文字幕电影高清在线观看 | 在线有码中文 | 日本性高潮视频 | 久久国产亚洲视频 | 久久精品视频日本 | 婷婷综合久久 | 精品久久久久久久久久岛国gif | 综合五月| 人人插人人草 | 国产1区2| 在线视频1卡二卡三卡 | 亚洲精品裸体 | 91亚洲精品国偷拍 | 啪啪激情网 | 日韩二三区 | 国产护士在线 | 欧美在线观看小视频 | 欧美一级片在线免费观看 | 日韩网站免费观看 | 国产成年人av | 四虎在线免费观看 | 在线观看中文字幕av | 亚洲精品国产精品国自 | 婷婷日| 99久久爱 | 丁香九月激情综合 | 在线亚洲免费视频 | 视频一区二区三区视频 | 日本在线观看一区二区三区 | 特级毛片网 | 黄在线免费看 | 99精品在线免费观看 | 成人在线免费观看网站 | 日韩一区精品 | 国产日本在线播放 | 久草资源在线 | 国产精品高潮呻吟久久久久 | a级成人毛片| 尤物97国产精品久久精品国产 | 97在线精品 | 91在线一区二区 | 999毛片| www国产精品com | 亚洲精品视频在线看 | 国产小视频在线免费观看 | 欧美日韩国产一区二区三区 | 精品一区二区三区香蕉蜜桃 | 国产一级做a | 久久优 | 欧美成人91 | 久久噜噜少妇网站 | 婷婷国产在线观看 | 亚洲伦理一区 | 国产精品久久久久久五月尺 | 91亚洲网站| 2019中文| 91亚洲激情 | 五月婷婷,六月丁香 | www.亚洲视频.com | 久久久久亚洲a | 天天爽天天搞 | 免费人成网 | 欧美另类交在线观看 | 91成人在线免费观看 | av高清一区 | 日韩高清av | 视频福利在线观看 | 亚洲精品观看 | 精品久久一级片 | av丝袜在线 | 免费涩涩网站 | 中文字幕在线观看1 | 天天操天天操天天操天天操天天操 | 日韩免费三级 | 久久精品区 | 在线观看一区二区视频 | 国产成人av电影在线观看 | 久久久久影视 | 亚洲国产剧情 | 亚洲视频一区二区三区在线观看 | 天堂av一区二区 | 91麻豆免费视频 | 久久久麻豆视频 | 精品国产一区二区三区久久久 | 中文字幕有码在线观看 | 中文字幕色综合网 | 国产黄色在线观看 | 波多野结衣电影一区二区 | 精品欧美一区二区三区久久久 | 日韩久久精品一区二区 | 在线观看一区二区视频 | 激情一区二区三区欧美 | 久久成人免费视频 | 亚洲综合色播 | 欧美不卡视频在线 | 国产精品不卡在线观看 | 国产xx视频 | 久久久久久久久黄色 | 免费av黄色 | 又爽又黄在线观看 | 黄av资源 | 亚洲香蕉在线观看 | 91精品第一页 | 不卡视频在线看 | 一本一本久久a久久精品综合小说 | 亚洲一级片免费观看 | 日韩二区三区 | 在线色视频小说 | 国产日产精品久久久久快鸭 | 欧美性护士 | 综合久久久久久久 | 久99久在线 | 久久久久女人精品毛片 | 久久在线播放 | 中文字幕在线观看第一页 | 国产 一区二区三区 在线 | aaa免费毛片| av观看在线观看 | 亚洲免费成人 | av免费观看网址 | 久久久亚洲电影 | 欧美日韩1区2区 | 国产中文字幕三区 | 五月婷婷丁香综合 | 亚洲国产激情 | 国产午夜三级一二三区 | 色噜噜在线观看视频 | 日韩精品中文字幕av | 婷婷久久综合九色综合 | 国产亚洲视频中文字幕视频 | 国产精品亚州 | 亚洲一区二区高潮无套美女 | 精品一区二区视频 | 久久精品久久久久久久 | 福利视频网站 | 黄色三级在线观看 | 伊人色综合久久天天网 | 久久久久激情视频 | 成人国产网站 | 亚洲三级在线免费观看 | 中文字幕在线视频国产 | 91亚洲网 | 久久视频6 | 国产成人久久精品77777 | 在线播放第一页 | 超碰在线网 | 国产视频中文字幕在线观看 | www免费网站在线观看 | 91丨九色丨蝌蚪丨老版 | 天天色天天上天天操 | 国产成人精品一区二区在线观看 | 91精选在线观看 | 国产一级不卡毛片 | 欧洲亚洲精品 | 高清有码中文字幕 | 国产精品久久久久久久久久久久久 | 波多野结衣电影一区 | h视频日本 | 国内成人精品视频 | 特级毛片网站 | 亚洲国产婷婷 | 97超碰人人看 | 四虎www | 91在线资源 | 日韩精品一区二区免费 | 热久久最新地址 | 国产区在线 | 91久久在线观看 | 在线观看免费国产小视频 | 日韩在线视频播放 | 日韩欧美视频在线播放 | 99精品国产高清在线观看 | 成人在线免费观看网站 | 成人黄色电影在线 | 久久精品日本啪啪涩涩 | 不卡精品视频 | 五月激情姐姐 | 日韩av电影网站在线观看 | 91精品视频免费观看 | 婷婷成人在线 | 国产一区二区三区免费观看视频 | 在线观看中文字幕2021 | 国产一区二区免费看 | 黄a网 | 人人舔人人插 | 黄色影院在线播放 | 国产最顶级的黄色片在线免费观看 | 在线观看av不卡 | 久草综合视频 | 特黄特色特刺激视频免费播放 | 久久99国产精品久久99 | 亚洲乱码精品久久久久 | 久久久影院一区二区三区 | 天天综合亚洲 | 免费看毛片在线 | 在线观看国产永久免费视频 | 亚洲精品一区二区三区新线路 | 成人黄色在线 | 911在线| 久久国产精品影视 | 91久久国产综合精品女同国语 | 日韩欧美在线观看一区二区三区 | 天天色成人 | 在线免费观看黄色 | 黄色小说视频网站 | 国产在线毛片 | 婷婷色资源 | 婷婷中文字幕综合 | 在线免费观看羞羞视频 | 欧美极品少妇xbxb性爽爽视频 | 超碰人人草人人 | 精品久久久久久一区二区里番 | 日韩三级免费 | 九草视频在线 | 天天干夜夜 | 日韩中文字幕免费电影 | 国产一区在线精品 | 日本论理电影 | 国产69精品久久99的直播节目 | 美女免费电影 | 亚洲精品国产精品久久99热 | 色婷婷a| 国产在线久草 | 99久久精品国产欧美主题曲 | 中文字幕在线色 | 欧美超碰在线 | 日日操日日 | 91在线观看黄 | 一级欧美日韩 | 日韩成人中文字幕 | 99热高清 | 精品一区二区在线观看 | 91精品国产成 | 久久久伊人网 | 国产精品乱码久久久 | 国产一级大片免费看 | 日本精品久久久久中文字幕 | 国产亚洲精品美女 | 超碰公开97 | 免费av成人在线 | 人人爽人人射 | 亚洲九九九在线观看 | 一区二区三区在线电影 | 一区二区三区四区在线 | 日韩高清成人在线 | 欧美日韩国产亚洲乱码字幕 | 99色网站 | 中文字幕有码在线观看 | 五月婷婷丁香色 | 成人在线播放视频 | av黄色免费看 | 欧美日一级片 | 成人av电影免费在线播放 | 日韩网站在线免费观看 | 日韩中文在线电影 | 亚洲免费在线观看视频 | 中文字幕观看av | 一区二区三区在线观看免费 | 免费看的av片| 日韩中文字幕视频在线观看 | a久久免费视频 | 亚洲黄色在线观看 | av免费在线网站 | 天天se天天cao天天干 | 婷婷五月色综合 | 久久噜噜少妇网站 | 在线天堂v | 免费视频一二三区 | 国产伦精品一区二区三区四区视频 | 美女视频黄免费网站 | 成人av影视在线 | 青草草在线 | 一区二区三区日韩精品 | 成人av片在线观看 | 国产精品久久99综合免费观看尤物 | 91亚洲激情 | 一区二区三区在线视频111 | 99热最新在线 | 久久精品久久精品久久 | 国偷自产视频一区二区久 | 国产中文a| 久久国产成人午夜av影院潦草 | 欧美成人亚洲成人 | 在线国产一区 | 99精品欧美一区二区三区黑人哦 | 久久久精品网站 | 精品久久久久国产免费第一页 | 亚一亚二国产专区 | 久久国产精品一区二区 | 高清视频一区二区三区 | 国产精品美女999 | 国产不卡毛片 | 六月丁香社区 | 日韩在线观看你懂的 | 亚洲最新av在线网址 | 97在线影院| 精品一区二区6 | 最近中文字幕免费 | 狠狠干狠狠插 | 丁香婷婷久久久综合精品国产 | 少妇搡bbbb搡bbb搡aa | 999视频网 | 国产福利免费看 | 天堂网在线视频 | 日韩av网站在线播放 | 国产小视频网站 | 五月婷婷色播 | 亚洲精品五月 | 国偷自产中文字幕亚洲手机在线 | 一级黄色片在线播放 | 欧美精品一区二区免费 | 操久 | 天天舔天天搞 | 美女国内精品自产拍在线播放 | 日韩av午夜在线观看 | 久久综合色播五月 | 正在播放一区 | av电影一区| 久久一区二区三区超碰国产精品 | 亚洲精品久久在线 | 亚洲欧美视频在线 | 亚洲精品福利在线观看 | 久久久国产精品麻豆 | 色综合久久久久久久久五月 | 可以免费观看的av片 | 香蕉网在线观看 | 久久久国际精品 | 91超在线 | 九色porny真实丨国产18 | 中文字幕在线视频免费播放 | 久久免费99| 久久久亚洲影院 | 99综合影院在线 | 九色视频网址 | 午夜av色| 色av婷婷| 亚洲欧美日韩一级 | 18久久久久久 | 欧美精品久久久久久久亚洲调教 | 在线观看网站av | 久久久久高清毛片一级 | 极品久久久久 | 日韩欧美在线观看一区 | 美女在线观看av | 狠狠的操你 | 狠狠干天天干 | 亚洲精品ww | 五月婷婷丁香激情 | 伊人影院av | 中文字幕在线免费看线人 | 午夜日b视频 | 激情深爱.com | 中文在线8新资源库 | 成人九九视频 | 九九精品视频在线看 | 欧美日韩高清在线观看 | 久久午夜免费视频 | 波多野结衣网址 | 韩日在线一区 | 激情综合婷婷 | 国产精品久久久久久久久久了 | 日韩欧美视频免费在线观看 | 一级成人免费视频 | 五月婷婷一级片 | 黄色片网站大全 | 日本中文字幕在线视频 | 免费看搞黄视频网站 | 在线观看国产成人av片 | 日韩一级黄色大片 | 激情婷婷亚洲 | 五月婷婷在线综合 | 久久亚洲婷婷 | 久久夜色精品亚洲噜噜国4 午夜视频在线观看欧美 | 九九综合九九 | 欧美疯狂性受xxxxx另类 | 久久成人精品视频 | 91网页版在线观看 | 狠狠干狠狠久久 | 97国产情侣爱久久免费观看 | 亚洲国产大片 | 成人国产网址 | 六月激情丁香 | 亚洲国产伊人 | 五月天国产精品 | 最近日韩免费视频 | 中文字幕成人一区 | 在线观看国产麻豆 | 精品久久国产一区 | 国产精成人品免费观看 | 一区二区中文字幕在线观看 | 免费在线观看av网址 | 人人超碰在线 | 久久天堂影院 | 国产免费观看av | 天天操天天操天天操天天 | 91视频在线网址 | 欧美日韩国语 | 久久久一本精品99久久精品 | 天天综合在线观看 | 欧美在线不卡一区 | 色综合久久五月天 | 激情婷婷综合网 | 色天天综合久久久久综合片 | 蜜臀av性久久久久av蜜臀妖精 | 色婷婷狠狠五月综合天色拍 | 日韩欧美国产视频 | 亚洲va欧美va人人爽春色影视 | 91人人视频在线观看 | 少妇av网 | 日本在线观看一区 | 欧美激情视频一二区 | 天天射天天色天天干 | 五月婷婷操 | 黄色软件网站在线观看 | 黄色字幕网 | 最近中文字幕 | 在线免费观看黄色 | av在线免费播放 | 久久电影中文字幕视频 | 亚洲成a人片在线观看网站口工 | 日日射天天射 | 亚洲六月丁香色婷婷综合久久 | 99热这里只有精品国产首页 | 久久精品国产一区二区电影 | 美女视频黄免费的 | 久久五月天综合 | 视频1区2区 | 午夜91在线 | 国产日产精品一区二区三区四区 | 中文字幕丝袜制服 | 国产精品18久久久久久久久久久久 | 久久久高清视频 | 狠狠做深爱婷婷综合一区 | 麻花豆传媒一二三产区 | 色吊丝在线永久观看最新版本 | av中文字幕免费在线观看 | 亚洲精品美女久久久久网站 | 国产精品一区二区三区在线看 | 亚洲黄色片一级 | 国产精品久久久久久久久搜平片 | 91中文字幕网 | 久久三级视频 | 黄色app网站在线观看 | 狠狠色伊人亚洲综合网站野外 | 亚洲精品美女在线 | 欧美日韩三区二区 | 在线看v片 | 最近中文字幕高清字幕在线视频 | 在线免费视频一区 | www.黄色片网站 | 亚洲天堂视频在线 | 丰满少妇在线观看资源站 | 四虎在线永久免费观看 | 最新超碰| 久久精品视频3 | 黄网站a | 成 人 黄 色 视频免费播放 | 最近2019年日本中文免费字幕 | av免费观看网站 | 免费亚洲视频 | 91精品啪在线观看国产 | 国产精品久久片 | 久久人91精品久久久久久不卡 | 天天久久综合 | 免费看色的网站 | 欧美色黄 | 国产精品1区2区在线观看 | 日韩,精品电影 | 国产综合香蕉五月婷在线 | 免费福利在线播放 | 久久中文视频 | 青草视频在线 | 在线91精品 | 国产精品成人av电影 | 亚洲精品自在在线观看 | 99久久精品久久久久久清纯 | 欧美精品久久99 | 久久综合九色综合97_ 久久久 | 在线成人短视频 | 人人爽人人爽av | www.婷婷色 | 色综合久久久久综合体桃花网 | 欧亚日韩精品一区二区在线 | 黄色精品免费 | 国产日产精品一区二区三区四区的观看方式 | 色综合天天综合 | 92av视频| 亚洲精品视频在线看 | 日韩av高清在线观看 | 日韩av免费一区二区 | 亚洲毛片视频 | 久久久久免费视频 | 亚洲a成人v| 精品电影一区二区 | 9797在线看片亚洲精品 | 97香蕉久久国产在线观看 | 日韩特级黄色片 | 欧美日韩午夜爽爽 | 婷婷六月天天 | 91精品国产高清 | 999成人免费视频 | 久久精品一区二区三区视频 | 91在线欧美| 在线观看 亚洲 | 欧美日韩不卡一区 | 一区二区三区久久精品 | 欧美日韩高清不卡 | 午夜精品久久久久久久99水蜜桃 | 久久婷综合| 国产乱码精品一区二区三区介绍 | 91香蕉国产 | 日韩三级视频在线观看 | 四虎成人精品 | 成人国产精品免费观看 | 国产精彩视频一区 | 中文字幕在线日 | 福利网在线 | 日本最新一区二区三区 | 精品国产美女在线 | 亚洲精品一区二区三区新线路 | 国产丝袜高跟 | 日韩精品一区二区三区视频播放 | 久久免费试看 | 国产91精品一区二区麻豆网站 | 在线香蕉视频 | 在线观看中文av | 中文字幕亚洲情99在线 | av大全免费在线观看 | 一区二区三区 亚洲 | 日本视频网| 国产精品久久久久久久久久久久 | 九九导航 | 激情综合中文娱乐网 | 99电影| 亚洲最大成人免费网站 | 成人毛片一区二区三区 | 中文字幕在线观看免费高清电影 | 五月婷婷在线播放 | 国产精品永久免费在线 | 亚洲成av人片在线观看香蕉 | 亚洲情婷婷 | 成人9ⅰ免费影视网站 | 99久久婷婷国产一区二区三区 | 91自拍视频在线 | 91精品国产成人 | 欧美一级性生活 | 91看片在线观看 | 精品视频在线免费观看 | 国产精品1区2区在线观看 | 国产精品久久久久婷婷 | 午夜色影院 | 麻豆91网站| av免费黄色 | 久久精品国产99 | 国产精品永久 | 免费三级大片 | 能在线看的av | 黄色国产区 | 午夜91在线| 国产精品入口久久 | 蜜桃av观看 | 激情影院在线 | 精品国产乱码久久久久久三级人 | 久久爽久久爽久久av东京爽 | 天天干天天搞天天射 | 成人黄色电影免费观看 | 在线天堂v | 久久婷婷丁香 | 亚洲一区二区三区毛片 | 9在线观看免费高清完整版在线观看明 | 成人av电影在线播放 | 一区二区不卡在线观看 | 国产在线精品视频 | 中文av字幕在线观看 | 97成人精品区在线播放 | 字幕网av| 国产高清av在线播放 | 久久久精品小视频 | 91av在线电影 | 高清不卡一区二区三区 | 福利一区二区三区四区 | 色综合久久五月 | 麻豆精品在线 | av高清在线 | 亚洲黄色小说网 | 亚洲另类在线视频 | 99热这里只有精品1 av中文字幕日韩 | av片子在线观看 | 日韩动漫免费观看高清完整版在线观看 | 免费在线观看一级片 |