日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Elasticsearch Pipeline 详解

發(fā)布時間:2024/8/23 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Elasticsearch Pipeline 详解 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

文章目錄

    • Ingest Node
      • 簡介 Ingest Node
      • 簡介 Pipeline、Processors
      • Pipeline 定義
      • 簡介 Simulate Pipeline API
      • 訪問 Pipeline 中的內(nèi)容
      • Processors 類型詳解
        • Append Processor
        • Convert Processor
        • Date Processor
        • Date Index Name Processor
        • Fail Processor
        • Foreach Processor
        • Grok Processor
        • Gsub Processor
        • Join Processor
        • JSON Processor
        • KV Processor
        • Lowercase Processor
        • Remove Processor
        • Rename Processor
        • Script Processor
        • Set Processor
        • Split Processor
        • Sort Processor
        • Trim Processor
        • Uppercase Processor
        • Dot Expander Processor
      • 自定義 Processor

說明

本文是建立在有一些 Elasticsearch 基礎和了解相關 Pipeline 概念的人

Ingest Node

簡介 Ingest Node

Ingest Node(預處理節(jié)點)是 ES 用于功能上命名的一種節(jié)點類型,可以通過在 elasticsearch.xml 進行如下配置來標識出集群中的某個節(jié)點是否是 Ingest Node.

node.ingest: false

上述將 node.ingest 設置成 false,則表明當前節(jié)點不是 Ingest Node,不具有預處理能力,當然 Elasticsearch 默認所有節(jié)點都是 Ingest Node,即集群中所有的節(jié)點都具有預處理能力.

何為預處理呢?

用過 Logstash 對日志進行處理的用戶都知道,一般情況下我們并不會直接將原始的日志進行加載到 Elasticsearch 集群,而是對原始日志信息進行(深)加工后保存到 Elasticsearch 集群中.比如 Logstash 支持多種解析器比如 json,kv,date 等,比較經(jīng)典的是 grok.這里我們不會對 Logstash 的解析器進行詳細說明,只是為了描述一個問題,有些時候我們需要 Logstash 來對加載到 Elasticsearch 中的數(shù)據(jù)進行處理,這個處理,從概念上而言,我們也能稱之為"預處理.而這里我們所說的預處理也其實就是類似的概念.

可以這么說,在 Elasticsearch 沒有提供 IngestNode 這一概念時,我們想對存儲在 Elasticsearch 里的數(shù)據(jù)在存儲之前進行加工處理的話,我們只能依賴 Logstash 或自定義插件來完成這一功能,但是在 Elasticsearch 5.x 版本中,官方在內(nèi)部集成了部分 Logstash 的功能,這就是 Ingest,而具有 Ingest 能力的節(jié)點稱之為 Ingest Node.

請查看 Filter plugins 來了解更多關于 Logstash 解析器的內(nèi)容.

如果要脫離 Logstash 來對在 Elasticsearch 寫入文檔之前對文檔進行加工處理,比如為文檔某個字段設置默認值,重命名某個字段,設置通過腳本來完成更加復雜的加工邏輯,我們則必須要了解兩個基本概念: Pipeline 和 Processors.

參考: Ingest Node 來了解更多關于上述兩個概念.下文只是簡單說明兩者.

簡介 Pipeline、Processors

管道(Pipeline)是眾所周知的一個概念,Elasticsearch 引入這一概念,是為了讓那些有過工作經(jīng)驗的人來說更直白,更輕松的理解這一概念.本人是主要用 Java 進行開發(fā),這里就以 Pipeline 和 java 中的 Stream 進行類比,兩者從功能和概念上很類似,我們經(jīng)常會對 Stream 中的數(shù)據(jù)進行處理,比如 map 操作,peek 操作,reduce 操作,count 操作等,這些操作從行為上說,就是對數(shù)據(jù)的加工,而 Pipeline 也是如此,Pipeline 也會對通過該 Pipeline 的數(shù)據(jù)(一般來說是文檔)進行加工,比如上面說到的,修改文檔的某個字段值,修改文檔某個字段的類型等等.而 Elasticsearch 對該加工行為進行抽象包裝,并稱之為 Processors.Elasticsearch 命名了多種類型的 Processors 來規(guī)范對文檔的操作,比如 set,append,date,join,json,kv 等等.這些不同類型的 Processors,我們會在后文進行說明

Pipeline 定義

定義一個 Pipeline 是件很簡單的事情,官方給出了參考:

PUT _ingest/pipeline/my-pipeline-id {"description" : "describe pipeline","processors" : [{"set" : {"field": "foo","value": "bar"}}] }

上面的例子,表明通過指定的 URL 請求"_ingest/pipeline"定義了一個 ID 為"my-pipeline-id"的 pipeline,其中請求體中的存在兩個必須要的元素:

  • description 描述該 pipeline 是做什么的
  • processors 定義了一系列的 processors,這里只是簡單的定義了一個賦值操作,即將字段名為"foo"的字段值都設置為"bar"

如果需要了解更多關于 Pipeline 定義的信息,可以參考: Ingest APIs

簡介 Simulate Pipeline API

既然 Elasticsearch 提供了預處理的能力,總不能是黑盒處理吧,為了讓開發(fā)者更好的了解和使用預處理的方式和原理,官方也提供了相關的接口,來讓我們對這些預處理操作進行測試,這些接口,官方稱之為: Simulate Pipeline API.想要深入了解 pipeline 以及 processors 的使用,我們基本離不開 Simulate Pipeline API 來輔助幫我們完成許多工作.

下面是一個比較簡單的 Simulate Pipeline API 的例子:

POST _ingest/pipeline/_simulate {"pipeline" : {// pipeline definition here},"docs" : [{ "_source": {/** first document **/} },{ "_source": {/** second document **/} },// ...] }

上面的例子中,在請求 URL 中并沒有明確指定使用哪個 pipeline,這種情況下需要我們在請求體中即時定義一個,當然我們也可以在請求 URL 中指定一個 pipeline 的 ID,如下面例子:

POST _ingest/pipeline/my-pipeline-id/_simulate {"docs" : [{ "_source": {/** first document **/} },{ "_source": {/** second document **/} },// ...] }

這樣一來,在請求體中我們定義的"docs"中的內(nèi)容就能夠使用該 pipeline 和該 pipeline 種的 processors,下面是一個比較具體的例子:

POST _ingest/pipeline/_simulate {"pipeline" :{"description": "_description","processors": [{"set" : {"field" : "field2","value" : "_value"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"foo": "bar"}},{"_index": "index","_type": "type","_id": "id","_source": {"foo": "rab"}}] }

在上面具體的例子中,我們并沒有在請求 URL 中指定使用哪個 pipeline,因此我們不得不在請求體中即時定義一個 pipeline 和對應的 processors,例子很簡單,只是讓通過該 pipeline 的的文檔中的字段名稱為"field2"的字段值為"_value",文檔我們也指定了,就是"docs"中定義的文檔,該請求的響應信息如下:

{"docs": [{"doc": {"_id": "id","_index": "index","_type": "type","_source": {"field2": "_value","foo": "bar"},"_ingest": {"timestamp": "2017-05-04T22:30:03.187Z"}}},{"doc": {"_id": "id","_index": "index","_type": "type","_source": {"field2": "_value","foo": "rab"},"_ingest": {"timestamp": "2017-05-04T22:30:03.188Z"}}}] }

從具體的響應結(jié)果中看到,在文檔通過 pipeline 時(或理解為被 pipeline 中的 processors 加工后),新的文檔與原有的文檔產(chǎn)生了差異,這些差異體現(xiàn)為:

  • 文檔都新增了 field2 字段,這點我們可以通過對比響應前后的定義在"docs"中文檔的_source 內(nèi)容中看出
  • 額外增加了一些臨時(官方稱之為瞬態(tài))的字段,比如 timestamp,他們都在_ingest 節(jié)點下,(這些)字段都是臨時與源文檔存在一起,在被 pipeline 中的 processors 加工后后返回給對應的批量操作或索引操作之后,這些信息就不會攜帶返回.
  • 訪問 Pipeline 中的內(nèi)容

    如果我們只是定義一個 Pipeline 而不能訪問該 Pipeline 的上下文信息,那么設計 Pipeline 就顯然是多此一舉.與 logstash 不同的時候,logstash 環(huán)境與 Elasticsearch 環(huán)境是隔離的,兩者無法形成上下文環(huán)境,而 Pipeline 則不同,天然的集成在 Elasticsearch 中,從而很好的與其形成上線文環(huán)境,這個環(huán)境讓 Pipeline 能夠更充分的利用起來,比如與 Pipeline 能夠形成最直接的上線文關系的是文檔信息,由此可見,我們可以在 Pipeline(應該是 processors 中)能夠直接訪問通過 pipeline 的文檔信息,如文檔的字段,元數(shù)據(jù)信息.

    下面的例子說明了我們?nèi)绾卧?processors 中訪問這些上下文信息.

    訪問源文檔字段

    {"set": {"field": "my_field""value": 582.1} }

    這個例子直接引用了通過該 Pipeline 內(nèi)的文檔字為"my_field"的字段,并將所有文檔該字段的值設置為 582.1.

    或者我們也可以通過_source 字段來訪問源文檔的字段,如下

    {"set": {"field": "_source.my_field""value": 582.1} }

    訪問文檔的元數(shù)據(jù)字段

    每個文檔都會有一些元數(shù)據(jù)字段信息(metadata filed),比如_id,_index,_type 等,我們在 processors 中也可以直接訪問這些信息的,比如下面的例子:

    {"set": {"field": "_id""value": "1"} }

    直接訪問文檔的_id 字段,并設置該值為 1

    訪問瞬態(tài)元字段(ingest metadata field)

    這個地方并沒有直接翻譯官方名稱,因為不好理解,我使用了我自己的理解意圖去翻譯該名稱.其實含義是一致的,官方稱之為ingest metadata field,翻譯過來且為"攝取元數(shù)據(jù)字段?"(請高人翻譯,我實在無法很好的翻譯出來),從官方對該詞的釋義中可以理解出來,這些字段是臨時保存的,在這些文檔被處理完成之后返回給對應的批量請求和索引請求的時候,這些字段不會一并返回,因此這里稱之為"瞬態(tài)元字段",下面是一個如何訪問這些字段的例子:

    {"set": {"field": "received""value": "{{_ingest.timestamp}}"} }

    該例子會在文檔中臨時加入一個名稱為"received"的字段,值為瞬態(tài)元字段中的 timestamp,以{{_ingest.timestamp}}的格式來進行訪問,看到{{}}是不是有種很熟悉的感覺,因為只有在涉及上下文的環(huán)境中一般才會使用這種表達式.

    Processors 類型詳解

    • Append Processor 追加處理器
    • Convert Processor 轉(zhuǎn)換處理器
    • Date Processor 日期轉(zhuǎn)換器
    • Date Index Name Processor 日期索引名稱處理器
    • Fail Processor 失敗處理器
    • Foreach Processor 循環(huán)處理器
    • Grok Processor Grok 處理器
    • Gsub Processor
    • Join Processor
    • JSON Processor
    • KV Processor
    • Lowercase Processor
    • Remove Processor
    • Rename Processor
    • Script Processor
    • Split Processor
    • Sort Processor
    • Trim Processor
    • Uppercase Processor
    • Dot Expander Processor

    Append Processor

    顧名思義,追加處理器.就是當我們加載原始文檔到 Elasticsearch 的時候,某些字段的描述信息可能需要我們定制性的增加一些額外說明.

    使用方法如下:

    {"append": {"field": "field1","value": ["item2", "item3", "item4"]} }

    比如我們需要從第三方新導入一批商品,因為某種原因這批新商品必須要打上一個"家居"的標簽來表示該批商品是"家居分類",當然一個商品也可能不止一個分類,這個時候要求我們在導入這批文檔數(shù)據(jù)的時候,需要在原有的標簽字段中新增一個"家居"標簽,這個時候我們就通過追加處理器來完成.

    下面的例子我們通過 Simulate Pipeline API 來幫助我們完成

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "新增一個家居標簽","processors": [{"append": {"field": "tag","value": ["家居"]}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"code":"000001","tag": "衣柜"}},{"_index": "index","_type": "type","_id": "id","_source": {"code":"000002","tag": "沙發(fā)"}},{"_index": "index","_type": "type","_id": "id","_source": {"code":"000003"}}] }

    返回結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"code": "000001","tag": ["衣柜","家居"]},"_ingest": {"timestamp": "2017-11-24T13:19:55.555Z"}}},{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"code": "000002","tag": ["沙發(fā)","家居"]},"_ingest": {"timestamp": "2017-11-24T13:19:55.555Z"}}},{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"code": "000003","tag": ["家居"]},"_ingest": {"timestamp": "2017-11-24T13:19:55.555Z"}}}] }

    我們可以看到,通過該處理器處理之后,新的文檔中的 tag 字段都新增了一個"家居"標簽,同時如果原文檔沒有該字段,則會新建該字段.

    Convert Processor

    該類型的 Processor 是用于在寫入某些文檔之前對該文檔的字段類型進行轉(zhuǎn)換,比如文檔中有個字符串類型的"價格"字段,我們希望將其轉(zhuǎn)換成 float 類型,則我們可以使用該處理器來完成這項操作,實現(xiàn)如下:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "修改字符串類型為double類型","processors": [{"convert": {"field": "price","type": "float"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"code":"000001","tag": "衣柜","price":"999.8"}},{"_index": "index","_type": "type","_id": "id","_source": {"code":"000002","tag": "沙發(fā)","price":"899.8"}},{"_index": "index","_type": "type","_id": "id","_source": {"code":"000003","price":"799.8"}}] }

    測試結(jié)果如下:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"code": "000001","tag": "衣柜","price": 999.8},"_ingest": {"timestamp": "2017-11-26T10:56:47.663Z"}}},{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"code": "000002","tag": "沙發(fā)","price": 899.8},"_ingest": {"timestamp": "2017-11-26T10:56:47.664Z"}}},{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"code": "000003","price": 799.8},"_ingest": {"timestamp": "2017-11-26T10:56:47.664Z"}}}] }

    可以看到,新的文檔,price 字段將不再是字符串類型了,而是 float 類型.

    使用 Convert Processor 需要注意的是,目前官方支持轉(zhuǎn)換的類型有如下幾個:integer, float, string, boolean, and auto。

    關于更多該處理器的使用說明,請參考: https://www.elastic.co/guide/en/elasticsearch/reference/current/convert-processor.html

    Date Processor

    日期處理器,顧名思義,就是將原文檔中的某個日期字段轉(zhuǎn)換成一個 Elasticsearch 識別的時間戳字段(一般默認為@timestamp),該時間戳字段將會新增到原文檔中.(目前發(fā)現(xiàn)該功能比較雞肋,因為轉(zhuǎn)換后的時間格式只能是 ISO 8601 時間格式的,并不能轉(zhuǎn)換成其他格式,因此很少用)

    下面是一個使用 Date Processor 的例子:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "轉(zhuǎn)換成指定格式的日期格式字段","processors": [{"date": {"field": "date","formats": ["UNIX"],"timezone": "Asia/Shanghai"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"code":"000001","tag": "衣柜","price":"999.8","date":"1511696379"}}] }

    就是將原有的字符串表示的日期格式進行格式轉(zhuǎn)換(最終轉(zhuǎn)換成的是 ISO 時間格式),結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"date": "1511696379","code": "000001","@timestamp": "2017-11-26T19:39:39.000+08:00","price": "999.8","tag": "衣柜"},"_ingest": {"timestamp": "2017-11-26T12:01:16.787Z"}}}] }

    我們可以看到多了一個默認字段@timestamp,該字段名稱可以通過 target_field 字段來指定該字段名稱.

    為什么說只能生成 ISO 格式的時間呢?這方面的資料官方?jīng)]有提供,只能自己去源碼中看,這里

    public void execute(IngestDocument ingestDocument) {String value = ingestDocument.getFieldValue(field, String.class);DateTime dateTime = null;Exception lastException = null;for (Function<String, DateTime> dateParser : dateParsers) {try {dateTime = dateParser.apply(value);} catch (Exception e) {//try the next parser and keep track of the exceptionslastException = ExceptionsHelper.useOrSuppress(lastException, e);}}if (dateTime == null) {throw new IllegalArgumentException("unable to parse date [" + value + "]", lastException);}ingestDocument.setFieldValue(targetField, ISODateTimeFormat.dateTime().print(dateTime));}

    其中最后一行,在設置字段的時候,發(fā)現(xiàn)源碼中已經(jīng)寫死為 ISODateTimeFormat.個人感覺官方應該會自定義 pattern.

    Date Index Name Processor

    Date Index Name Processor 算得上是一個比較強大的處理了,它的目的是讓通過該處理器的文檔能夠分配到符合指定時間格式的索引中,前提是按照官方提供的說明來進行使用:

    我們先創(chuàng)建一個該類型的 pipeline,如下:

    curl -XPUT 'localhost:9200/_ingest/pipeline/monthlyindex?pretty' -H 'Content-Type: application/json' -d' {"description": "monthly date-time index naming","processors" : [{"date_index_name" : {"field" : "date1","index_name_prefix" : "myindex-","date_rounding" : "M"}}] } '

    我們再創(chuàng)建一個文檔,如下(該文檔會使用該 pipeline)

    curl -XPUT 'localhost:9200/myindex/type/1?pipeline=monthlyindex&pretty' -H 'Content-Type: application/json' -d' {"date1" : "2016-04-25T12:02:01.789Z" } '

    結(jié)果如下:

    {"_index" : "myindex-2016-04-01","_type" : "type","_id" : "1","_version" : 1,"result" : "created","_shards" : {"total" : 2,"successful" : 1,"failed" : 0},"created" : true }

    以上請求將不會將此 document(文檔)放入 myindex 索引,而是放入到 myindex-2016-04-01 索引中.

    這就是日期索引名稱處理器(Date Index Name Processor)強大的地方,我們寫入的文檔可以根據(jù)其中的某個日期格式的字段來指定該文檔將寫入哪個索引中,該功能配上 template,能夠?qū)崿F(xiàn)很強大的日志收集功能,比如按月按天來將日志寫入 Elasticsearch.

    如果想了解 Date Index Name Processor 的使用,請參考:Date Index Name Processor

    Fail Processor

    該處理器比較簡單,就是當文檔通過該 pipeline 的時候,一旦出現(xiàn)異常,該 pipeline 指定的錯誤信息就會返回給請求者.

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "monthly date-time index naming","processors" : [{"fail": {"message": "an error message"}}]}, "docs": [{"_index": "myindex","_type": "type","_id": "id","_source": {"id":"1"}}] }

    結(jié)果如下:

    {"docs": [{"error": {"root_cause": [{"type": "exception","reason": "java.lang.IllegalArgumentException: org.elasticsearch.ingest.common.FailProcessorException: an error message","header": {"processor_type": "fail"}}],"type": "exception","reason": "java.lang.IllegalArgumentException: org.elasticsearch.ingest.common.FailProcessorException: an error message","caused_by": {"type": "illegal_argument_exception","reason": "org.elasticsearch.ingest.common.FailProcessorException: an error message","caused_by": {"type": "fail_processor_exception","reason": "an error message"}},"header": {"processor_type": "fail"}}}] }

    Foreach Processor

    一個 Foreach Processor 是用來處理一些數(shù)組字段,數(shù)組內(nèi)的每個元素都會使用到一個相同的處理器,比如

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "foreach processor","processors" : [{"foreach": {"field": "values","processor": {"uppercase": {"field": "_ingest._value"}}}}]}, "docs": [{"_index": "index","_type": "type","_id": "id","_source": {"id":"1","values":["hello","world","felayman"]}}] }

    上面的例子中,文檔中的 values 字段是一個數(shù)組類型的字段,其中每個元素都需要使用 Foreach Processor 中的一個共同的 uppercase Processor 來保證該字段中的每個元素都能執(zhí)行相同的操作

    結(jié)果如下:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"id": "1","values": ["HELLO","WORLD","FELAYMAN"]},"_ingest": {"_value": null,"timestamp": "2017-11-27T08:55:17.496Z"}}}] }

    關于每個 Processor,深入下去都有許多需要說明的,這里沒有深入,只是讓大家了解其基本使用。

    詳情請參考: Foreach Processore

    Grok Processor

    Grok Processor 可以算的上是一個比較實用的處理器了,會經(jīng)常使用到日志格式切割上,有用過 logstash 的用戶應該都知道 Grok 的強大.這里并不會涉及到到 Grok 詳細的語法知識.這里我們只是略過的說明 Elasticsearch 中的ingest node 中的 pipeline 也能提供 logstash 中的 Grok 的功能.

    如下的使用例子:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "grok processor","processors" : [{"grok": {"field": "message","patterns": ["%{IP:client} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}"]}}]}, "docs": [{"_index": "index","_type": "type","_id": "id","_source": {"message": "55.3.244.1 GET /index.html 15824 0.043"}}] }

    上面例子中的日志可能是 nginx 的日志,格式為:

    55.3.244.1 GET /index.html 15824 0.043

    對應的 Grok 語法為:

    %{IP:client} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}

    因此該文本格式的日志信息在經(jīng)過 Grok Processor 之后,能夠解析成一個標準文檔的格式,該文檔可以使用 Elasticsearch 提供的檢索和聚合功能充分使用到,而原始的文本格式的日志信息則無法做到這一點

    返回結(jié)果如下:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"duration": "0.043","request": "/index.html","method": "GET","bytes": "15824","client": "55.3.244.1","message": "55.3.244.1 GET /index.html 15824 0.043"},"_ingest": {"timestamp": "2017-11-27T09:07:40.782Z"}}}] }

    可以看到,對應的切割點都轉(zhuǎn)換成文檔中的一個字段.

    關于 Grok Processor 的詳細介紹,請參考:Grok Processor

    Gsub Processor

    Gsub Processor 能夠解決一些字符串中才特有的問題,比如我想把字符串格式的日期格式如"yyyy-MM-dd HH:mm:ss"轉(zhuǎn)換成"yyyy/MM/dd HH:mm:ss"的格式,我們可以借助于 Gsub Processor 來解決,而 Gsub Processor 也正是利用正則來完成這一任務的.

    如:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "gsub processor","processors" : [{"gsub": {"field": "message","pattern": "-","replacement": "/"}}]}, "docs": [{"_index": "index","_type": "type","_id": "id","_source": {"message": "2017-11-27 00:00:00"}}] }

    返回結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"message": "2017/11/27 00:00:00"},"_ingest": {"timestamp": "2017-11-27T09:15:05.502Z"}}}] }

    就將 message 字段中的日期格式修改成我們想要的格式了.

    更多關于 Gsub Processor 的介紹,請參考 Gsub Processor

    Join Processor

    Join Processor 能夠?qū)⒃疽粋€數(shù)組類型的字段值,分解成以指定分隔符分割的一個字符串.

    如下例子:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "join processor","processors": [{"join": {"field": "message","separator": "、、、、"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"message": ["hello","world","felayman"]}}] }

    結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"message": "hello、、、、world、、、、felayman"},"_ingest": {"timestamp": "2017-11-27T09:25:41.260Z"}}}] }

    可以看到,原文檔中數(shù)組格式的的 message 字段,經(jīng)過 Join Processor 處理后,變成了字符串類型的字段"hello、、、、world、、、、felayman".

    更多關于 Join Processor 的內(nèi)容,請參考:Join Processor

    JSON Processor

    JSON Processor 也是用來處理字符串類型的字段,可以將那些符合 JSON 格式(或被 JSON 串化)的文本,在經(jīng)過 JSON Processor 加工之后,解析成對應的 JSON 格式,如下例子:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "join processor","processors": [{"json": {"field": "message"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"message":"{\"foo\": 2000}"}}] }

    結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"message": {"foo": 2000}},"_ingest": {"timestamp": "2017-11-27T09:30:28.546Z"}}}] }

    可以看到,原本是字符串格式的字段 message,在處理之后變成了一個標準的 JSON 格式.

    更多關于 JSON Processor 的內(nèi)容,請參考:JSON Processor

    KV Processor

    KV Processor 用來 K,V 字符串格式的處理器,比如 K=V, K:V,K->V 等格式的解析.

    如下例:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "kv processor","processors": [{"kv": {"field": "message","field_split":" ","value_split": ":"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"message":"ip:127.0.0.1"}}] }

    其中字段 message 的原始值為"“ip:127.0.0.1"”,我們想將該格式的內(nèi)容新增一個獨立的字段如 ip:127.0.0.1 這種格式.

    結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"message": "ip:107.0.0.1","ip": "107.0.0.1"},"_ingest": {"timestamp": "2017-11-27T09:46:48.715Z"}}}] }

    更多關于 KV Processor 的內(nèi)容,請參考:KV Processor

    Lowercase Processor

    Lowercase Processor 也是一個專用于字符串類型的字段處理器,顧名思義,是將字符串都轉(zhuǎn)換成小寫格式.

    如下:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "lowercase processor","processors": [{"lowercase": {"field": "message"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"message":"HELLO,WORLD,FELAYMAN."}}] }

    結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"message": "hello,world,felayman."},"_ingest": {"timestamp": "2017-11-27T09:49:58.564Z"}}}] }

    可以看到原文檔中的 message 字段的值,在使用 Lowercase Processor 之后,都變成大寫的了.

    更多關于 Lowercase Processor 的內(nèi)容,請參考:Lowercase Processor

    Remove Processor

    Remove Processor 是用來處理在寫入文檔之前,刪除原文檔中的某些字段值的.

    如下:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "remove processor","processors": [{"remove": {"field": "extra_field"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"extra_field":"extra_field","message":" hello, felayman."}}] }

    在經(jīng)過 Remove Processor 處理后,extra_field 字段將不存在了.

    結(jié)果為下:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"message": " hello, felayman."},"_ingest": {"timestamp": "2017-11-27T09:58:46.038Z"}}}] }

    Rename Processor

    Rename Processor 是用來處理在文檔寫入 Elasticsearch 之前修改某個文檔的字段的名稱

    如下:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "remove processor","processors": [{"rename": {"field": "old_name","target_field": "new_name"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"old_name":"old_name"}}] }

    會發(fā)現(xiàn)原文檔的字段 old_name 被重新命名為 new_name 字段

    結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"new_name": "old_name"},"_ingest": {"timestamp": "2017-11-27T10:00:48.694Z"}}}] }

    Script Processor

    Script Processor 算的上是最強大的處理了,因為能充分利用 Elasticsearch 提供的腳本能力.

    這里也不會詳細介紹 Elasticsearch 中的腳本如何使用,有關信息,請參考:Script

    我么看下在 Script Processor 中使用腳本的例子:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "script processor","processors": [{"script": {"lang": "painless","inline": "ctx.viewCount = (ctx.viewCount) *10"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"viewCount": 100}}] }

    這里我們通過腳本讓原文檔中的 viewCount 字段的值擴大十倍,結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"viewCount": 1000},"_ingest": {"timestamp": "2017-11-27T10:07:56.112Z"}}}] }

    Set Processor

    Set Processor 作用于兩種不同情況:

  • 指定字段存在時,修改指定字段的值
  • 指定字段不存在時,新增該字段并設置該字段的值
  • 例子如下:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "set processor","processors": [{"set": {"field": "category","value": "家居"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"id":"0001"}}] }

    這里我們?yōu)槊總€使用 Set Processor 的文檔新增一個分類"家居"

    結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"id": "0001","category": "家居"},"_ingest": {"timestamp": "2017-11-27T10:12:05.306Z"}}}] }

    Split Processor

    Split Processor 用于將一個以指定分隔分開的字符串轉(zhuǎn)換成一個數(shù)組類型的字段

    如下:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "Split processor","processors": [{"split": {"field": "message","separator": "-"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"message":"hello-world"}}] }

    其中原文檔的 message 字段值將會有"hello-world"轉(zhuǎn)換為[“hello”,“world”]

    結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"message": ["hell","world"]},"_ingest": {"timestamp": "2017-11-27T10:13:35.982Z"}}}] }

    Sort Processor

    Sort Processor 用于處理數(shù)組類型的字段,可以將存儲在原文檔中某個數(shù)組類型的字段中的元素按照升序或降序來對原元素進行排序

    如下:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "sort processor","processors": [{"sort": {"field": "category","order": "asc"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"category":[2,3,4,1]}}] }

    我們使用升序來修改原文檔 category 字段的值的存儲排序

    結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"category": [1,2,3,4]},"_ingest": {"timestamp": "2017-11-27T10:16:16.409Z"}}}] }

    Trim Processor

    哎,Elasticsearch 開發(fā)者真的沒誰了,基本上能把 String 類中的方法都拿過來搬一套過來使用.

    Trim Processor 是專門用于處理字符串兩端的空格問題,如下

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "trim processor","processors": [{"trim": {"field": "message"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"message":" hello, felayman."}}] }

    請注意,是去除字符串兩端的空格.

    結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"message": "hello, felayman."},"_ingest": {"timestamp": "2017-11-27T09:56:17.946Z"}}}] }

    Uppercase Processor

    該處理器類似于 Lowercase Processor,將字符串文本統(tǒng)一轉(zhuǎn)換成大寫.

    如下:

    POST _ingest/pipeline/_simulate {"pipeline": {"description": "uppercase processor","processors": [{"uppercase": {"field": "message"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"message":"hello,world,felayman."}}] }

    結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"message": "HELLO,WORLD,FELAYMAN."},"_ingest": {"timestamp": "2017-11-27T09:53:33.672Z"}}}] }

    更多關于 Uppercase Processor 的內(nèi)容,請參考:Uppercase Processor

    Dot Expander Processor

    自定義 Processor

    如果發(fā)現(xiàn)官方提供的 Processor 不滿足我們的加工邏輯怎么辦?不用擔心,官方提供了很好的插件機制來幫助我們對其進行擴展,想實現(xiàn)一個自定義的 Processor 需要兩個過程:

    • 實現(xiàn) IngestPlugin 接口,并實現(xiàn) IngestPlugin 中的 getProcessors 方法
    • 實現(xiàn)自定義的 Processor

    下面我們給一個具體的例子,我們將任何傳入的一個字段的值都變成大寫(最簡化模型,不指定字段,使用_ingest/pipeline/_simulate api 模擬該操作)

    新建一個項目,名稱為 elasticsearch-help,新建 FirstUpperPlugin 類,如下:

    package org.elasticsearch.help; import org.elasticsearch.help.processor.FirstUpperProcessor; import org.elasticsearch.ingest.Processor; import org.elasticsearch.plugins.IngestPlugin; import org.elasticsearch.plugins.Plugin; import java.util.Collections; import java.util.Map;/*** @auhthor lei.fang@shijue.me* @since . 2017-11-26*/ public class FirstUpperPlugin extends Plugin implements IngestPlugin{@Overridepublic Map<String, Processor.Factory> getProcessors(Processor.Parameters parameters) {return Collections.singletonMap(FirstUpperProcessor.TYPE,new FirstUpperProcessor.Factory());} }

    其中我們實現(xiàn)了 getProcessors 方法,該方法主要用來提供我們自定義的額 Processor,其中 FirstUpperProcessor 源碼如下:

    package org.elasticsearch.help.processor; import org.elasticsearch.ingest.AbstractProcessor; import org.elasticsearch.ingest.ConfigurationUtils; import org.elasticsearch.ingest.IngestDocument; import org.elasticsearch.ingest.Processor; import java.util.Map;/*** @auhthor lei.fang@shijue.me* @since . 2017-11-26*/ public class FirstUpperProcessor extends AbstractProcessor {public static final String TYPE = "firstUpper";private final String field;public FirstUpperProcessor(String tag,String field) {super(tag);this.field = field;}@Overridepublic void execute(IngestDocument ingestDocument) throws Exception {ingestDocument.setFieldValue(field,field.toUpperCase());}@Overridepublic String getType() {return TYPE;}public static final class Factory implements Processor.Factory {public FirstUpperProcessor create(Map<String, Processor.Factory> registry, String processorTag,Map<String, Object> config) throws Exception {String field = ConfigurationUtils.readStringProperty(TYPE, processorTag, config, "field");return new FirstUpperProcessor(processorTag, field);}}}

    可以看到,其中核心的方法為 execute,主要是將傳入的字段的值轉(zhuǎn)換成大寫,這里只是調(diào)用了簡單的 toUpperCase()方法.

    我們使用_ingest/pipeline/_simulate api 來進行測試:

    curl -XGET 'http://localhost:9200/_ingest/pipeline/_simulate?pretty ' -d '{"pipeline": {"description": "字符串首字母轉(zhuǎn)換成大寫","processors": [{"firstUpper":{"field":"message"}}]},"docs": [{"_index": "index","_type": "type","_id": "id","_source": {"message":"hello,world."}}] }'

    結(jié)果為:

    {"docs": [{"doc": {"_index": "index","_type": "type","_id": "id","_source": {"message":"Hello,world."},"_ingest": {"timestamp": "2017-11-27T10:16:16.409Z"}}}] }

    可以看到,自定義的 Ingest node 插件成功了.

    完結(jié).

    總結(jié)

    以上是生活随笔為你收集整理的Elasticsearch Pipeline 详解的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

    国际精品久久 | 亚洲国产精品激情在线观看 | 在线天堂中文在线资源网 | 亚洲第一区精品 | 狠狠色综合网站久久久久久久 | 日本久久久久久久久久 | 久久综合电影 | av在线电影网站 | 精品影院一区二区久久久 | 午夜av日韩| 久久精品伊人 | 国产欧美日韩视频 | 99久高清在线观看视频99精品热在线观看视频 | 亚洲丁香久久久 | 黄色片网站大全 | 久久久国产精品视频 | 久久精品成人 | 色多多污污在线观看 | 午夜精品福利影院 | 国产精品久久嫩一区二区免费 | 国产精品久久久久久久久费观看 | 国产手机在线观看 | 五月天.com | 亚洲一区二区三区毛片 | 日日夜夜免费精品 | 国产色啪 | 免费合欢视频成人app | 国产一级片久久 | 国产黄网站在线观看 | 欧美精品三级在线观看 | 国产精品一区二区在线看 | 久久av中文字幕片 | 99精品小视频 | 久久久国产精品人人片99精片欧美一 | 成年人免费在线观看网站 | 日本精品久久久久久 | 国产三级在线播放 | 免费电影一区二区三区 | 一区二区三区国产精品 | 在线视频观看成人 | 亚洲在线高清 | 91精品在线播放 | 中文字幕在线成人 | 亚洲免费在线看 | 成人av一区二区三区 | 99精品一区二区三区 | 色就色,综合激情 | 一二三区视频在线 | 91成熟丰满女人少妇 | 超碰97人人射妻 | 在线免费观看视频你懂的 | 成人在线电影观看 | 欧美日本不卡视频 | 成人黄色在线观看视频 | 色网站在线免费观看 | 日韩av免费在线电影 | 国产涩涩网站 | 亚洲精品国产第一综合99久久 | 天天综合中文 | 亚洲成人精品影院 | 国产一二三区在线观看 | 国产精品高 | 性色av香蕉一区二区 | 欧美色久 | 中文字幕国产 | 国产91精品看黄网站 | avhd高清在线谜片 | 中文字幕第一页在线播放 | 97干com| 亚州欧美精品 | 久草新在线 | 五月婷婷激情六月 | 婷婷九月丁香 | 精品你懂的 | 一区二区中文字幕在线 | 狠狠色噜噜狠狠狠狠2021天天 | 亚洲三级在线免费观看 | www成人av | 日日日操操 | 国产小视频国产精品 | 91中文字幕在线播放 | 亚洲最大在线视频 | 国产日韩欧美视频在线观看 | 伊人www22综合色 | 国产精品亚洲综合久久 | 国产在线精品区 | 久久久91精品国产一区二区三区 | 99久久精品免费看国产四区 | 久久精品aaa | av看片在线观看 | 国产小视频国产精品 | 免费视频成人 | 99视频精品全部免费 在线 | 亚洲一区av | 亚洲精品动漫久久久久 | 日韩网站中文字幕 | 最新av在线播放 | 国产精品视频永久免费播放 | av在线播放免费 | 99热都是精品 | 中文字幕亚洲综合久久五月天色无吗'' | 人人精品久久 | 日韩免费大片 | 久久视频这里有久久精品视频11 | 亚洲热久久 | 亚a在线| 久草视频在线免费 | 国产精品第10页 | 日韩三级视频在线看 | 三级性生活视频 | 久久久久电影网站 | 亚洲人成综合 | 日韩免费大片 | 91在线看黄 | 日本在线中文在线 | 狠狠色网 | 精品日韩中文字幕 | 国产成人av免费在线观看 | 探花在线观看 | 色成人亚洲网 | 日本久久久精品视频 | 久久avav| 中文字幕电影一区 | 怡红院久久 | 97在线观看免费高清完整版在线观看 | 波多在线视频 | 高清不卡一区二区在线 | 91成人破解版 | 日韩精品免费在线视频 | 久久久黄色av | 少妇超碰在线 | 亚洲 综合 激情 | 国产视频二 | 亚洲欧美日本一区二区三区 | 成 人 a v天堂 | 国产又粗又猛又黄 | 亚洲精品色视频 | 欧美另类网站 | 国产一级淫片免费看 | 亚洲91精品在线观看 | 天天插综合网 | 特黄一级毛片 | 五月网婷婷 | 亚洲精品免费播放 | 免费精品视频在线观看 | 欧美一区二区精美视频 | www狠狠操 | 日韩中文字幕在线不卡 | 国产免费看| 综合网欧美 | 中文字幕在线观看视频网站 | 18国产精品白浆在线观看免费 | 99久久精| 性色av免费看 | www.黄色片网站 | 国产精品免费视频观看 | 国产在线不卡视频 | 精品视频在线播放 | 久久久久久久久久毛片 | 狠狠色狠狠色合久久伊人 | 一区二区三区韩国免费中文网站 | 91在线91拍拍在线91 | 337p欧美| 国产日韩欧美视频在线观看 | 日韩资源在线 | 99热官网 | 国产黄视频在线观看 | 91久久在线观看 | 中文在线a∨在线 | 免费在线国产 | 四虎影视www| 天天色天天上天天操 | 天天综合网久久综合网 | 免费视频在线观看网站 | 国产99久久久国产精品成人免费 | 精品国产一区二区三区久久影院 | 久草在线视频在线 | 欧美日韩国产三级 | 中文字幕在线观看视频一区 | 高清不卡毛片 | 最近中文字幕国语免费高清6 | 国产二区视频在线观看 | 日韩精品视频免费专区在线播放 | 草久在线观看 | 在线香蕉视频 | av黄色国产 | 91亚洲精品久久久蜜桃网站 | 色在线亚洲 | 国产精品久久久久久久久久久免费看 | 日日干网址 | www.综合网.com | 美女视频永久黄网站免费观看国产 | 江苏妇搡bbbb搡bbbb | 一区二区不卡视频在线观看 | 日韩中文字幕免费视频 | 亚洲国产影院av久久久久 | 黄色一级大片在线免费看国产一 | 欧美成a人片在线观看久 | 国产原创中文在线 | 日女人免费视频 | 黄色成人av | 日本韩国在线不卡 | 免费在线观看成人 | 色偷偷av男人天堂 | 香蕉久草 | 天天爱天天操天天干 | 超碰97国产精品人人cao | 欧美日韩国产精品一区二区亚洲 | 女女av在线| 久人人 | 国产精品系列在线播放 | 亚洲天堂首页 | 狠狠色伊人亚洲综合成人 | 91精品国产麻豆 | 9999精品 | 久久尤物电影视频在线观看 | 911香蕉| 久久伊人精品天天 | 亚洲 综合 专区 | 精品国产区 | 片黄色毛片黄色毛片 | 国产精品网址在线观看 | 蜜臀一区二区三区精品免费视频 | 奇米导航 | 日韩欧美精品在线观看视频 | 国产亚洲va综合人人澡精品 | 欧美一区二区精美视频 | 亚洲精品久久久久久国 | 亚洲免费资源 | 黄色精品网站 | 999热视频 | 高清精品久久 | 久久男人免费视频 | 人人舔人人爱 | 国产精品久久久免费看 | 欧美精品一区二区三区一线天视频 | 久久精品国产亚洲 | 国产精品婷婷午夜在线观看 | 99久久久久久久久 | 成人av在线直播 | 国产精品午夜久久 | 97色综合 | 国产精品123 | 99热免费在线 | 免费男女羞羞的视频网站中文字幕 | 欧美日韩视频在线 | 国产精品成人一区二区 | 日韩在线视频精品 | 91在线免费看片 | 国产黄大片在线观看 | 黄色网在线免费观看 | aaa亚洲精品一二三区 | 色综合中文字幕 | 亚洲午夜久久久久久久久久久 | av福利在线看 | 又黄又爽又刺激 | 国产精品免费在线观看视频 | 日韩一二三区不卡 | 91入口在线观看 | 伊香蕉大综综综合久久啪 | 欧美综合色在线图区 | 中文字幕中文字幕 | 国产又粗又长又硬免费视频 | 激情五月婷婷综合 | 天天操天天射天天操 | 国产精品美女久久久久久久 | 五月天综合婷婷 | 蜜臀av性久久久久蜜臀av | 国产成人l区 | 91在线精品视频 | 成人永久视频 | 国产一级大片免费看 | 日韩欧美一区二区三区视频 | 国产一区二区影院 | 麻豆系列在线观看 | 黄色片网站免费 | 国产精品精品 | 日日干天天插 | 国产自产高清不卡 | 亚洲乱码久久久 | 91福利视频网站 | 99久久精品免费看国产 | 亚洲专区欧美 | 天天在线视频色 | 欧美天天干 | 欧洲精品码一区二区三区免费看 | 黄色三级免费片 | 91精品国产麻豆 | 久久成人综合 | 四虎4hu永久免费 | 精品国产综合区久久久久久 | 美女黄视频免费看 | 日本精油按摩3 | 免费99视频 | av成人免费网站 | 天天干,天天插 | 国产精品久久久久久吹潮天美传媒 | 久久综合激情 | 美女视频黄免费的 | 久久综合亚洲鲁鲁五月久久 | 中文在线免费观看 | 天堂资源在线观看视频 | 久草在线欧美 | 婷婷丁香六月天 | 激情五月看片 | 国产精品亚 | 国产精品久久久久久久久久免费 | 国产精品成人免费精品自在线观看 | 91视频传媒 | 成人在线超碰 | 天天综合操 | 黄色在线观看网站 | 久久久私人影院 | 久久中文欧美 | 午夜美女wwww| 日韩中文字幕亚洲一区二区va在线 | 国产一区二区在线免费观看 | 在线观看一区 | 丁香六月婷婷开心婷婷网 | 国产免费国产 | 成人av日韩| 午夜美女wwww| 18av在线视频 | 一区二区三区四区免费视频 | 五月天久久久久 | 日本一区二区高清不卡 | 国产在线a视频 | 97成人在线视频 | 婷婷激情在线 | 天堂av观看 | 国产精品福利小视频 | 免费毛片一区二区三区久久久 | 免费在线精品视频 | 欧美十八| 亚洲精品乱码久久久久久蜜桃不爽 | 亚洲久草在线 | 亚洲精品午夜久久久久久久久久久 | 天天操天天色天天射 | 夜夜躁狠狠躁日日躁视频黑人 | 亚洲精品午夜久久久久久久久久久 | 国产精品精品久久久久久 | 蜜桃av久久久亚洲精品 | 婷婷伊人综合 | 色天天| 91在线麻豆 | 天天艹天天操 | 天堂av免费在线 | 免费看片黄色 | 欧美一级乱黄 | 一区二区三区免费在线观看视频 | 亚洲在线视频免费观看 | 国产精品久久久久久久久久99 | 天天操操 | 天天操操 | 欧美激情va永久在线播放 | 国产精品久久久久免费a∨ 欧美一级性生活片 | 日日操操操 | 国产看片 色 | 成人激情开心网 | 国产日本在线 | 国产精品一区二区av影院萌芽 | 国产精品久久久久永久免费看 | 国产成人一区二区三区久久精品 | 麻豆久久一区二区 | 中文字幕在线观看视频一区 | 中文字幕中文字幕 | 国内丰满少妇猛烈精品播 | 免费a网站 | 亚洲影院天堂 | 国产精品美乳一区二区免费 | 色视频网站免费观看 | 欧美疯狂性受xxxxx另类 | 精品国产乱码一区二区三区在线 | 热久久视久久精品18亚洲精品 | 亚洲精品视频在线观看免费 | 天天色天天搞 | 欧美a级免费视频 | 一区二区三区国产精品 | 日韩欧美高清免费 | 亚洲视频在线观看免费 | 国产小视频福利在线 | 日本中文字幕在线视频 | 五月天色站 | 美女一级毛片视频 | 日韩av在线免费播放 | 国产精品视频久久 | 国产成人精品av在线观 | 亚州成人av在线 | 色干综合 | 久久久久五月 | 91精品免费在线 | 国产a视频免费观看 | 婷婷5月激情5月 | 久久久久久久毛片 | 亚洲成人av一区 | 激情丁香月 | 亚洲91中文字幕无线码三区 | 日本丶国产丶欧美色综合 | 最新中文在线视频 | 日日操网站 | 精品网站999www | 国产高清视频 | 999久久久精品视频 日韩高清www | 正在播放久久 | 日本电影久久 | 中文字幕a∨在线乱码免费看 | 国产精品毛片久久 | 成年人在线观看免费视频 | 亚洲欧美一区二区三区孕妇写真 | 一区 在线观看 | 日本高清dvd | 成年人视频在线免费播放 | 天天做天天爱天天爽综合网 | 欧美激情综合五月 | 日韩高清在线一区二区三区 | 91av网站在线观看 | 69av视频在线观看 | 久久99免费视频 | 91人人爱 | 久久婷婷国产色一区二区三区 | 免费中文字幕 | 国产精品成人久久久 | 国产91在线 | 美洲 | 娇妻呻吟一区二区三区 | 天海冀一区二区三区 | 久久er99热精品一区二区三区 | 亚洲综合最新在线 | 一二三区av| 婷婷丁香色综合狠狠色 | 视频1区2区| 国产成本人视频在线观看 | 国产美女在线观看 | 久久大香线蕉app | 日日干日日操 | 久久欧美视频 | 韩日成人av | 在线观看成年人 | 久久成人午夜视频 | 五月激情在线 | 国产日韩欧美综合在线 | 91在线观看视频网站 | av在线永久免费观看 | 久久人91精品久久久久久不卡 | 国产中文字幕在线看 | 国产精品99页| 色香天天| 91精品视频免费看 | 91在线免费公开视频 | 在线观看亚洲a | 丁香综合激情 | 天天操天天干天天干 | 欧美激情综合五月色丁香 | 日韩在线电影一区 | 最近中文字幕完整高清 | 亚洲干| 最新色站| 成人精品视频久久久久 | 国产自产高清不卡 | 1区2区3区在线观看 三级动图 | 天天干,天天射,天天操,天天摸 | 亚洲电影一区二区 | 日本激情中文字幕 | 亚洲网久久 | 中文字幕日本在线观看 | av中文字幕不卡 | 蜜臀av麻豆| 久久精品一区二区国产 | av高清免费| 激情综合啪啪 | 精品国产欧美 | 高清国产午夜精品久久久久久 | 免费电影一区二区三区 | 亚洲免费公开视频 | 久人人 | 久久人人爽人人爽 | 91看片成人| 日韩动漫免费观看高清完整版在线观看 | 日韩啪啪小视频 | 久久精品系列 | 欧美一级电影片 | 日本91在线 | 干亚洲少妇 | 日韩精品一区二区三区水蜜桃 | 激情影院在线观看 | 日日夜操 | 美女福利视频一区二区 | 久久九九免费视频 | 国产精品二区在线 | 亚洲国产成人久久综合 | 91麻豆精品国产91 | 欧美精品一区二区蜜臀亚洲 | 国产精品久久一区二区三区不卡 | 一区二区视频欧美 | 麻豆传媒一区二区 | 涩涩网站在线 | 久操操| 人人揉人人揉人人揉人人揉97 | 国产看片网站 | 国产一级做a | 日韩在线国产 | 国产精品 久久 | 日韩精品不卡 | 亚洲免费一级电影 | 日韩深夜在线观看 | 国产亚洲精品综合一区91 | 久久这里有精品 | 精品免费视频. | 国产亚洲精品久久久久秋 | 一区二区理论片 | 日韩在线播放av | 99久久久| 久久久精选 | 四虎成人精品永久免费av九九 | 国产成人久久精品一区二区三区 | 久久黄色影视 | 成年人视频在线免费 | 九九热久久免费视频 | 成人97人人超碰人人99 | 国产色中涩| 久久综合婷婷 | 久久9视频 | 色婷婷狠狠五月综合天色拍 | 狠狠躁夜夜躁人人爽超碰91 | 亚洲精品国内 | 热精品 | 国产一级免费在线观看 | 欧美国产日韩在线观看 | h动漫中文字幕 | 91九色蝌蚪国产 | 91热在线| 国产日产亚洲精华av | av黄色影院 | 成在线播放 | 国产精品 视频 | 九九视频在线观看视频6 | 国产一卡二卡在线 | 亚洲狠狠操 | 五月天色中色 | 久久综合久久综合这里只有精品 | 欧美一级电影 | 久久天天躁狠狠躁夜夜不卡公司 | 国产精品免费观看久久 | 久久精品亚洲国产 | 国产精品99蜜臀久久不卡二区 | 国内精品久久天天躁人人爽 | 国产精品露脸在线 | 美女福利视频 | 国产69精品久久app免费版 | 国产精品一区免费看8c0m | 天天狠狠 | 亚洲国产中文字幕 | 97精产国品一二三产区在线 | 国产第一页在线观看 | 日韩在线观看高清 | av成人动漫在线观看 | 成人av亚洲 | 国产一级黄色电影 | 奇米影视777四色米奇影院 | www.黄色 | 视频在线国产 | 日韩精品免费专区 | 一区二区三区四区五区在线视频 | 精品福利在线观看 | 日韩一区二区三免费高清在线观看 | 综合网欧美| 免费观看完整版无人区 | av3级在线 | 久久男人影院 | 欧美日韩一区二区在线观看 | 日日夜色| 国产免费小视频 | 国产91探花 | 一区二区三区精品在线视频 | 美女久久视频 | 国产手机视频 | 免费欧美精品 | 亚洲天堂网在线播放 | 久久久久久黄色 | 久久一区国产 | 亚洲精区二区三区四区麻豆 | 国产韩国精品一区二区三区 | 国产在线精品区 | 天堂网在线视频 | 国产精品久久久久9999 | 国产精品剧情在线亚洲 | 婷婷深爱网| 亚洲日韩中文字幕 | 九九视频精品在线 | 天天色婷婷 | 日韩视频免费看 | 久久99亚洲热视 | 91成人精品在线 | 色网站在线看 | a精品视频 | 中文在线www | 国产在线高清精品 | 天天操天天摸天天爽 | 特级西西444www大胆高清无视频 | 久久电影色 | 久久精品美女 | 97夜夜澡人人爽人人免费 | 国产人成在线观看 | 久久久久9999亚洲精品 | 欧美性护士 | 91成年人在线观看 | 国产黄视频在线观看 | 国产九九热 | 国产在线毛片 | 欧美日韩国产精品一区二区 | 在线国产能看的 | 精品久久网站 | 亚洲免费国产视频 | 欧美a级一区二区 | 国产视频网站在线观看 | 国产91精品久久久久久 | 最近中文字幕免费观看 | 91最新在线 | 国产h在线播放 | 91视频大全| 国产精品自产拍在线观看蜜 | 久久人人爽视频 | 亚洲国产剧情 | 黄色av一级片 | japanese黑人亚洲人4k | av黄色av| 夜夜干夜夜 | 国产精品一级在线 | 久久免费播放视频 | 国产亚洲va综合人人澡精品 | 中文字幕在线电影 | 欧美日韩在线观看视频 | 国产成人一区二区三区久久精品 | 亚洲精品 在线视频 | 五月婷婷av在线 | 国内久久看 | 亚洲夜夜网 | 久久精品aaa | 色视频在线观看 | 一级a性色生活片久久毛片波多野 | 国语黄色片 | 黄色成人av网址 | 成人久久精品 | 免费国产在线观看 | 在线观看日韩国产 | 国产手机视频在线 | 精品福利视频在线 | 国产亚洲精品久久久久久无几年桃 | 婷婷网站天天婷婷网站 | 日日日干| 精品久久久久久一区二区里番 | 91精品久久久久久久久 | 99热在| 亚洲国产精品电影 | 91片黄在线观看 | 国产精品日韩欧美 | 韩国在线一区二区 | wwwwww国产| 久久精品视频一 | 久久a v电影 | 日韩午夜在线播放 | 欧美日韩国产在线精品 | 亚洲专区视频在线观看 | 中文字幕 第二区 | av中文字幕在线看 | 日韩三级不卡 | 综合视频在线 | 免费看的国产视频网站 | 久久国产精品99久久久久久进口 | 天天做日日爱夜夜爽 | 激情久久综合网 | 丝袜美腿在线视频 | 国产精品9999久久久久仙踪林 | www.久艹| 91亚色免费视频 | 国产精品你懂的在线观看 | 黄色毛片在线 | 麻豆国产网站入口 | 激情av网址| 在线视频精品 | 99在线热播精品免费 | 日韩一级黄色av | 成人黄色小说视频 | 久久99精品国产一区二区三区 | 精品一区二区三区在线播放 | 久久激情视频 久久 | 日韩欧美xxx | 中文字幕在线观 | 中文字幕第一页在线播放 | 麻豆国产精品va在线观看不卡 | 激情网站免费观看 | 在线久草视频 | 91成人在线观看高潮 | 五月天色婷婷丁香 | 成人免费在线播放视频 | 亚洲高清在线精品 | 欧美成人免费在线 | 激情五月在线视频 | 久久国产精品精品国产色婷婷 | 日三级在线 | 涩涩网站在线播放 | 成人资源网 | 九九精品久久久 | 福利av影院 | 69精品| 日韩av片免费在线观看 | 少妇bbb| 欧美精品第一 | www.久久爱.cn | 亚洲精品美女久久久 | 亚洲精品高清在线 | 日韩在线观看中文字幕 | 97精品国产97久久久久久久久久久久 | 色婷婷婷| 亚洲干| 欧美成人理伦片 | 美女黄网久久 | 久久免费的精品国产v∧ | 日韩精品在线看 | 久久精品视频99 | 婷婷av色综合 | 麻豆视频在线免费观看 | 蜜臀久久99精品久久久久久网站 | 在线观看久久 | 日韩三区在线 | 爱干视频 | 91一区二区三区久久久久国产乱 | 国产美女视频免费 | 在线影院 国内精品 | 91精彩视频在线观看 | 精品一区91| 国产成人av网址 | 九色激情网| av午夜电影 | 俺要去色综合狠狠 | 日韩大片免费观看 | 精品国产不卡 | www91在线 | 福利区在线观看 | 国产九色视频在线观看 | av网站在线免费观看 | 四虎免费在线观看视频 | 婷香五月| 国产网站色 | 成人av中文字幕在线观看 | 一区三区在线欧 | 天天弄天天干 | 99久久国产免费,99久久国产免费大片 | 色噜噜在线观看 | 免费下载高清毛片 | 不卡在线一区 | 久久久精品国产一区二区 | 一区二区三区高清 | 亚洲精品videossex少妇 | 久操97| 美州a亚洲一视本频v色道 | 在线观看免费观看在线91 | 国产精品白浆 | 美女视频免费一区二区 | 麻豆一区在线观看 | 999久久久免费精品国产 | 国产无遮挡猛进猛出免费软件 | 久草在线费播放视频 | 国产成人精品一区二区在线 | 91激情视频在线观看 | 日韩v欧美v日本v亚洲v国产v | 亚洲另类视频在线 | 天天躁日日躁狠狠 | 中文字幕在线播放视频 | 久久精品国产精品亚洲精品 | 中文字幕免费成人 | 精品国产乱码 | 国产精品免费视频网站 | 日韩在线播放欧美字幕 | 狠狠色噜噜狠狠狠狠2021天天 | www.99热精品| 欧美激情精品久久久久久变态 | 91久久丝袜国产露脸动漫 | 午夜影院三级 | 视频在线99re| 婷婷六月中文字幕 | 91九色蝌蚪国产 | 中文字幕国产在线 | 制服丝袜在线 | 欧美性生交大片免网 | 欧美日韩久久不卡 | 亚洲最新在线 | 夜夜夜夜爽 | 欧美成人精品三级在线观看播放 | 亚洲成人精品国产 | 欧美精品亚洲精品日韩精品 | 人人澡人人爽 | 96亚洲精品久久 | 欧美日韩精品国产 | 最近2019中文免费高清视频观看www99 | 最新亚洲视频 | 日本一区二区三区免费观看 | 亚洲天堂色婷婷 | 91香蕉视频黄| 在线观看日韩视频 | 免费看黄色毛片 | 亚洲国产免费 | 东方av免费在线观看 | 99久久精品无免国产免费 | 欧美精品一区二区三区四区在线 | 国产无遮挡又黄又爽馒头漫画 | 国产a级精品 | 国产精品久久久一区二区三区网站 | 久久精品视频在线播放 | 国产精品免费视频一区二区 | 国产高清黄色 | 色999五月色 | 欧美黑人巨大xxxxx | 亚洲国产999 | 久碰视频在线观看 | a视频在线 | 精品久久久久久久久久久久久 | 99亚洲国产 | 亚洲精品久久久蜜臀下载官网 | 在线观看成人网 | 91av在线不卡 | 国产专区精品 | 一级黄色片在线免费观看 | 欧美动漫一区二区三区 | 国产成人99久久亚洲综合精品 | 中国一级特黄毛片大片久久 | 日韩精品在线视频免费观看 | 日韩精品久久久 | 奇米影视四色8888 | 日韩在线观看网址 | 亚洲久草在线视频 | 亚洲91av| 国产小视频免费在线网址 | 日韩一级理论片 | 日韩最新av在线 | 免费午夜av | 99精品国产福利在线观看免费 | 国产精品中文久久久久久久 | 欧美日韩一区二区三区在线观看视频 | 亚洲成人中文在线 | av一区在线播放 | 黄色一级在线观看 | 婷婷久久一区 | 中字幕视频在线永久在线观看免费 | 久久精品在线视频 | 四虎www.| 欧美一级片免费播放 | 久久久午夜影院 | 亚洲精品视频在线观看视频 | 97电影在线看视频 | 97视频人人 | 人人天天夜夜 | 中文字幕二区 | 在线观看爱爱视频 | 欧美一级久久久久 | 福利一区视频 | 久久国产美女 | 九九热在线播放 | 欧美一区日韩精品 | 在线免费观看黄 | 色婷婷狠| 99精品免费在线 | 日本护士撒尿xxxx18 | 一性一交视频 | 成片免费观看视频大全 | 久草青青在线观看 | 国产在线播放一区二区 | 8090yy亚洲精品久久 | 久久国产亚洲精品 | 成人黄色免费观看 | 99久久精品国产亚洲 | 91精品人成在线观看 | 亚洲天堂香蕉 | 夜夜骑日日 | 毛片888| 精品不卡视频 | 91亚洲永久精品 | 成年人黄色大全 | 在线国产片 | 九九九毛片 | 午夜精品99久久免费 | 黄色亚洲在线 | 粉嫩av一区二区三区四区 | 国产精品一区二区av影院萌芽 | av在线网站观看 | 狠狠干综合 | 在线观看免费色 | 欧美一级黄色网 | 91视频亚洲 | 久久九九久久九九 | 天天做天天干 | 久久人人插 | 九月婷婷色 | 国产精品久久久久久久久大全 | 国产剧情av在线播放 | 欧美在线视频二区 | 欧美大香线蕉线伊人久久 | 日韩欧美高清 | 国产女人18毛片水真多18精品 | 97国产一区二区 | 精品欧美一区二区精品久久 | av中文在线播放 | 亚洲专区免费观看 | 欧美日韩久久不卡 | 国产中文字幕在线视频 | 久久激情日本aⅴ | 久久电影国产免费久久电影 | 日韩精选在线观看 | 欧美日本不卡 | 久久久久久久久久亚洲精品 | 韩国中文三级 | 狠狠狠狠狠狠操 | 亚洲精品综合在线 | 91中文在线 | 91免费试看 | 精品九九九 | 日韩高清不卡在线 | 免费能看的av | 国产xvideos免费视频播放 | 国产手机在线观看视频 | 亚洲日本va午夜在线电影 | 天天插狠狠干 | 91九色porny在线 | 中文字幕日韩精品有码视频 | 国产精品99免费看 | 97在线观看免费 | 精品国产一区二区三区久久久蜜臀 | 天天操欧美 | 美女黄网站视频免费 | 国产亚洲精品久久网站 | 在线观看国产v片 | 欧美一级黄色视屏 | 国内精品视频在线 | 一区二区视频播放 | 欧洲精品码一区二区三区免费看 | a视频免费| 在线观看中文字幕2021 | 激情电影影院 | 国产精品美女 | 最新黄色av网址 | 六月丁香婷婷网 | 最新日韩视频 | 在线观看日韩视频 | 欧美一二在线 | 中文字幕一区二区三区在线播放 | 精品久久99 | 亚洲aⅴ一区二区三区 | 黄色日本免费 | 一级黄色片在线观看 | 国产精品资源 | 99久久999久久久精玫瑰 | 激情丁香月 | 国产一二三四在线观看视频 | 美女在线黄 | 一级性生活片 | 免费看黄网站在线 | 天天干人人插 | 久久久久久不卡 | 欧美日韩视频在线观看免费 | 久久国产精品电影 | 国产精品美女在线 | 国产精品粉嫩 | 99色在线观看视频 | 欧美日韩啪啪 | 国产免费亚洲 | 国产一级片毛片 | 丁香六月综合网 | 三级免费黄色 | 中文字幕在线日亚洲9 | 亚洲伊人网在线观看 | 日韩毛片一区 | 天堂在线一区二区三区 | www.天天干.com| 免费亚洲精品 | 亚洲免费精彩视频 | 国产又粗又猛又黄又爽的视频 | 91在线日本 | 成人蜜桃网 | 97精品在线 | 91在线国产观看 | 日本精品视频免费 | 免费韩国av | 超碰免费97 | 日本不卡视频 | 久久国产午夜精品理论片最新版本 | 国产精品国产自产拍高清av | 99久久99久久精品国产片果冰 | 992tv在线 | 久热超碰 | 插久久 | www.狠狠操.com | 久久精选视频 | 亚洲伦理精品 | 欧美另类一二三四区 | 国产精品福利视频 | 五月婷婷在线观看 | 2020天天干夜夜爽 | 久久久久国产成人精品亚洲午夜 | 色吊丝在线永久观看最新版本 |