日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

数据挖掘流程_数据流挖掘

發(fā)布時間:2023/11/29 编程问答 40 豆豆
生活随笔 收集整理的這篇文章主要介紹了 数据挖掘流程_数据流挖掘 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

數(shù)據(jù)挖掘流程

1-簡介 (1- Introduction)

The fact that the pace of technological change is at its peak, Silicon Valley is also introducing new challenges that need to be tackled via new and efficient ways. Continuous research is being carried out to improve the existing tools, techniques, and algorithms to maximize their efficiency. Streaming data has always remained a challenge since the last decades, nevertheless plenty of stream-based algorithms have been introduced but still, the researchers are struggling to achieve better results and performance. As you know that, when water from a fire hose starts hitting your face, chances to measure it starts decreasing gradually. This is due to the torrent nature of streams. It has introduced new challenges of analyzing and mining the streams efficiently. Stream analysis has been made easy up to some extent because of a few new tools that are introduced in the market recently. These tools are following different approaches and algorithms which are being improved continuously. However, when it comes to mining data streams, it is not possible to store and iterate over the streams like traditional mining algorithms due to their continuous, high-speed, and unbounded nature.

技術變革的步伐達到頂峰這一事實,硅谷也帶來了新的挑戰(zhàn),需要通過新的有效方式來應對。 正在進行持續(xù)的研究以改進現(xiàn)有的工具,技術和算法,以使其效率最大化。 自從過去的幾十年以來,流數(shù)據(jù)一直是一個挑戰(zhàn),盡管引入了很多基于流的算法,但是研究人員仍在努力獲得更好的結果和性能。 如您所知,當消防水帶上的水開始濺到您的臉上時,測量水的機會開始逐漸減少。 這是由于流的洪流性質。 它帶來了有效分析和挖掘流的新挑戰(zhàn)。 由于最近市場上引入了一些新工具,因此在某種程度上簡化了流分析。 這些工具采用了不同的方法和算法,并不斷得到改進。 但是,在挖掘數(shù)據(jù)流時,由于其連續(xù),高速且無限制的特性,因此無法像傳統(tǒng)的挖掘算法一樣在數(shù)據(jù)流上進行存儲和迭代。

Due to irregularity and variation in the arriving data, memory management has become the main challenge to deal with. Applications like sensor networks cannot afford mining algorithms with high memory cost. Similarly, time management, data preprocessing techniques, and choice of the data structure are also considered as some of the main challenges in the stream mining algorithms. Therefore, summarization techniques derived from the statistical science are dealing with a challenge of memory limitation, and techniques of the computational theory are being used to improve the time and space-efficient algorithms. Another challenge is the consumption of available resources, to cope with this challenge resource-aware mining is introduced which makes sure that the algorithm always consumes the available resources with some consideration.

由于到達數(shù)據(jù)的不規(guī)則性和變化,內存管理已成為要處理的主要挑戰(zhàn)。 像傳感器網(wǎng)絡這樣的應用程序無法承受具有高存儲成本的挖掘算法。 同樣,時間管理,數(shù)據(jù)預處理技術和數(shù)據(jù)結構的選擇也被視為流挖掘算法中的一些主要挑戰(zhàn)。 因此,源自統(tǒng)計科學的摘要技術正在應對內存限制的挑戰(zhàn),并且使用計算理論的技術來改進時間和空間效率高的算法。 另一個挑戰(zhàn)是可用資源的消耗,為了應對這一挑戰(zhàn),引入了資源感知挖掘,以確保算法始終在考慮某些因素的情況下消耗可用資源。

As data stream is seen only once therefore it requires mining in a single pass, for this purpose an extremely fast algorithm is required to avoid problems like data sampling and shredding. Such algorithms should be able to run with data streams in parallel settings partitioned to many distributed processing units. Infinite data streams with high volumes are produced by many online, offline real-time applications and systems. The update rate of data streams is time-dependent. Therefore to extract knowledge from streaming data, some special mechanism is required. Due to their high volume and speed, some special mechanism is required to extract knowledge from them.

由于只能看到一次數(shù)據(jù)流,因此需要單次挖掘,因此需要一種非常快速的算法來避免數(shù)據(jù)采樣和粉碎等問題。 這樣的算法應該能夠與并行設置為多個分布式處理單元的數(shù)據(jù)流一起運行。 許多在線,離線實時應用程序和系統(tǒng)都會產(chǎn)生大量的無限數(shù)據(jù)流。 數(shù)據(jù)流的更新速率取決于時間。 因此,要從流數(shù)據(jù)中提取知識,需要一些特殊的機制。 由于它們的高容量和高速度,需要一些特殊的機制來從它們中提取知識。

Many stream mining algorithms have been developed and proposed by machine learning, statistical and theoretical computer science communities. The question is, how should we know which algorithm is best in terms of dealing with current challenges as mentioned above, and what is still needed in the market? This document intends to answer these questions. As this research topic is quite vast therefore deciding the best algorithm is not quite straightforward. We have compared the most recently published versions of stream mining algorithms in our distribution which are classification, clustering, and frequent itemset mining. Frequent itemset mining is a category of algorithms used to find the statistics about streaming data.

機器學習,統(tǒng)計和理論計算機科學界已經(jīng)開發(fā)和提出了許多流挖掘算法。 問題是,就如何應對上述當前挑戰(zhàn)而言,我們如何知道哪種算法最好,而市場仍需要什么呢? 本文檔旨在回答這些問題。 由于這個研究主題非常廣泛,因此確定最佳算法并不是一件容易的事。 我們已經(jīng)比較了我們發(fā)行版中最新發(fā)布的流挖掘算法版本,它們是分類,聚類和頻繁項集挖掘。 頻繁項集挖掘是用于查找有關流數(shù)據(jù)的統(tǒng)計信息的一種算法。

2-分類 (2- Classification)

The classification task is to decide the proper label for any given record from a dataset. It is a part of Supervised learning. The way of the learning works is to have the algorithm learn patterns and important features from a set of labeled data or ground truths resulting in a model. This model will be utilized in the classification tasks. There are various metrics used to rate the performance of a model. For example, Accuracy, in which the focus of this metric is to maximize the number of correct labels. There is also, Specificity in which the focus is to minimize mislabelling negative class. There are few factors that are crucial to deciding which metrics are to be used in classification tasks, such as label distributions and the purpose of the task itself.

分類任務是為數(shù)據(jù)集中的任何給定記錄確定適當?shù)臉撕灐?它是監(jiān)督學習的一部分。 學習工作的方式是讓算法從一組標記數(shù)據(jù)或模型得出的基礎事實中學習模式和重要特征。 該模型將用于分類任務。 有多種指標可用于評估模型的性能。 例如,準確性,此度量標準的重點是最大化正確標簽的數(shù)量。 在“特異性”中,重點是最大程度地減少標簽錯誤的負面類別。 對于決定在分類任務中使用哪些度量至關重要的因素很少,例如標簽分布和任務本身的目的。

There are also a few types in the Classification Algorithm, such as Decision Trees, Logistic Regression, Neural Networks, and Naive Bayes. In this work, we decide to focus on Decision Tree.

分類算法中也有幾種類型,例如決策樹,邏輯回歸,神經(jīng)網(wǎng)絡和樸素貝葉斯。 在這項工作中,我們決定專注于決策樹。

In Decision Tree, the learning algorithm will construct a tree-like model in which the node is a splitting attribute and the leaf is the predicted label. For every item, the decision tree will sort such items according to the splitting attribute down to the leaf which contained the predicted label.

在決策樹中,學習算法將構建一個樹狀模型,其中節(jié)點是拆分屬性,葉是預測標簽。 對于每個項目,決策樹將根據(jù)拆分屬性將這些項目分類到包含預測標簽的葉子。

2.1 Hoeffding樹 (2.1 Hoeffding Trees)

Currently, Decision Tree Algorithms such as ID3 and C4.5 build the trees from large amounts of data by recursively select the best attribute to be split using various metrics such as Entropy Information Gain and GINI. However, existing algorithms are not suitable when the training data cannot be fitted to the memory.

當前,諸如ID3和C4.5之類的決策樹算法通過使用諸如熵信息增益和GINI之類的各種度量來遞歸選擇要分割的最佳屬性,從而從大量數(shù)據(jù)中構建樹。 但是,當訓練數(shù)據(jù)無法擬合到存儲器中時,現(xiàn)有算法不適合。

There exist few incremental learning methods in which the learning system, instead of fitting the entire data-sets at once in memory, continuously learning from the stream of data. However, it is found that those model lack of correctness guarantee compared to batch learning for the same amount of the data.

很少有增量學習方法,其中學習系統(tǒng)不是從內存中一次擬合整個數(shù)據(jù)集,而是從數(shù)據(jù)流中不斷學習。 但是,發(fā)現(xiàn)對于相同數(shù)量的數(shù)據(jù),與批處理學習相比,這些模型缺乏正確性保證。

Domingos and Hulten [1] formulated a decision tree algorithm called the Hoeffding Tree. With Hoeffding Tree, the record or training instance itself is not saved in the memory, only the tree nodes and statistics are stored. Furthermore, the most interesting property of this tree is that the correctness of this tree converges to trees built using a batch learning algorithm given sufficient massive data.

Domingos和Hulten [1]制定了一種決策樹算法,稱為Hoeffding樹。 使用霍夫丁樹,記錄或訓練實例本身不會保存在內存中,僅存儲樹節(jié)點和統(tǒng)計信息。 此外,該樹的最有趣的屬性是,在給定足夠的大量數(shù)據(jù)的情況下,該樹的正確性收斂到使用批處理學習算法構建的樹。

The training method for this tree is simple. For each sample, sort it to the subsequent leaf and update its statistic.

這棵樹的訓練方法很簡單。 對于每個樣本,將其排序到隨后的葉子并更新其統(tǒng)計信息。

There are two conditions that must be fulfilled in order for a leaf to be split

為了分裂葉子,必須滿足兩個條件

1. There exists impurity in the leaf node. That is, not every record that is stored on the leaf has the same class.

1.葉節(jié)點中存在雜質。 即,并非每個存儲在葉子上的記錄都具有相同的類。

2. The difference of the result of the evaluation function between the best attribute and second-best attribute denoted ?G is greater than E, where E is

2.最佳屬性和次佳屬性之間的評估函數(shù)結果之差表示為? G大于E ,其中E為

Where R is the range of the attribute, δ (provided by the user) is the desired probability of the sample not within E and n is the number of collected samples in that node.

其中R是屬性的范圍, δ (由用戶提供)是樣本不在E中的期望概率, n是在該節(jié)點中收集的樣本數(shù)。

In the paper, it is rigorously proven that the error of this tree is bounded by Hoeffding Inequality. Another excellent property of this tree is that even though we reduce the error rate exponentially, we only need to increase the sample size linearly.

在本文中,嚴格證明了該樹的錯誤受Hoeffding不等式的限制。 該樹的另一個出色特性是,即使我們以指數(shù)方式減少錯誤率,我們也只需要線性增加樣本大小。

2.2 VFDT算法 (2.2 VFDT Algorithm)

Domingos and Hutten further introduced a refinement of Hoeffding Tree called VFDT (Very Fast Decision Tree). The main idea is the same as Hoeffding Tree.

Domingos和Hutten進一步介紹了Hoeffding樹的改進,稱為VFDT(超快速決策樹)。 主要思想與霍夫丁樹相同。

The refinements are

細化是

?Ties VFDT introduced an extra parameter τ. It is used when the delta between the best and the second-best attribute is too similar

? 領帶 VFDT引入了額外的參數(shù)τ 。 當最佳屬性和次佳屬性之間的差值太相似時使用

?G computation Another parameter introduced is nmin, which denotes the minimum number of samples before G is recomputed. That means the computation of the G can be deferred instead of every time a new sample arrives, which reduces global times resulted from frequents calculation of G

? G計算引入的另一個參數(shù)是nmin ,它表示重新計算G之前的最小樣本數(shù)。 這意味著可以推遲G的計算,而不是每次到達新樣本時都進行延遲,這減少了由于頻繁計算G而導致的全局時間

?Memory VFDT introduces a mechanism of pruning the least promising leaf from the Tree whenever the maximum available memory already utilized. The criterion used to determine whether a leaf is to be prune is the product of the probability of a random example that will go to it denoted as pl and its observed error rate el. The leaf with the lowest that criteria value will be considered as the least promising and will be deactivated.

? 內存 VFDT引入了一種機制,只要已利用了最大的可用內存,就會從Tree中修剪掉前景最差的葉子。 用于確定是否要修剪葉子的標準是將要出現(xiàn)在葉子上的隨機示例的概率乘以p1并觀察到的錯誤率el的乘積。 具有最低標準值的葉子將被認為是最沒有希望的葉子,并將被停用。

?Dropping Poor Attributes Another approach to have a performance boost is to drop attributes that are considered not promising early. If the difference of its evaluation function value between an attribute with the best attribute is bigger than E, then that attribute can be dropped. However, the paper doesn’t explain what is the exact parameter or situation for an attribute to be dropped.

? 刪除較差的屬性提高性能的另一種方法是刪除被認為不盡早實現(xiàn)的屬性。 如果具有最佳屬性的屬性之間的評估函數(shù)值之差大于E ,則可以刪除該屬性。 但是,本文沒有說明要刪除的屬性的確切參數(shù)或情況是什么。

?Initialization The VFDT can be bootstrapped and combined by an existing memory-based decision tree to allow the VFDT to accomplish the same accuracy with a smaller number of examples. No detailed algorithm is provided, however.

? 初始化 VFDT可以通過現(xiàn)有的基于內存的決策樹進行引導和合并,以使VFDT能夠以更少的示例數(shù)實現(xiàn)相同的精度。 但是,沒有提供詳細的算法。

2.3 Hoeffding自適應樹 (2.3 Hoeffding Adaptive Trees)

One of the fallacies in Data Mining is the assumption that the distribution of data remains stationary. This is not the case, consider data from a kind of supermarket retails, the data can change rapidly in each different season. Such a phenomenon is called concept drift.

數(shù)據(jù)挖掘的謬論之一是假設數(shù)據(jù)分布保持平穩(wěn)。 情況并非如此,考慮到一種超市零售的數(shù)據(jù),該數(shù)據(jù)在每個不同的季節(jié)都會快速變化。 這種現(xiàn)象稱為概念漂移

As a solution, Bifet et al [2] proposed a sliding window and adaptively based enhancements to Hoeffding Tree. Furthermore, the algorithm to build such a tree is based on the authors’ previous work, ADWIN (Adaptive Windowing) Algorithm which is a parameter-free algorithm to detect and estimates changes in Data Stream.

作為解決方案,Bifet等人[2]提出了一個滑動窗口和對Hoeffding樹的自適應增強。 此外,構建此類樹的算法基于作者先前的工作,即ADWIN(自適應窗口)算法,該算法是一種無參數(shù)算法,可檢測和估計數(shù)據(jù)流中的變化。

In building adaptive learning algorithm, needs to be able to decides these three things

在建立自適應學習算法時,需要能夠決定這三件事

? What are things that need to be remembered?

?需要記住哪些事情?

? When is the correct time to upgrade the model?

? 什么時候升級模型?

? How to upgrade the model?

? 如何升級模型?

Therefore there is a need for a procedure that is able to predict and detect changes in Data Distribution. In this case, is served by ADWIN algorithm mentioned before.

因此,需要一種能夠預測和檢測數(shù)據(jù)分布變化的過程。 在這種情況下,由前面提到的ADWIN算法提供服務。

The main idea of Hoeffding Adaptive Tree is that aside from the main tree, alternative trees are created as well. Those alternative trees are created when distribution changes are detected in the data stream immediately. Furthermore, the alternate tree will replace the main tree when it is evidence that the alternate tree is far more accurate than the main tree. Ultimately, the changing and adaptation of trees are happening automatically judged from the time and nature of data instead of prior knowledge by the user. Note that, having said that it still retains in principle the algorithm to build and split the tree according to Hoeffding bound, similar to VFDT.

Hoeffding自適應樹的主要思想是,除了主樹之外,還創(chuàng)建替代樹。 當立即在數(shù)據(jù)流中檢測到分布更改時,將創(chuàng)建這些備用樹。 此外,當有證據(jù)表明備用樹比主樹準確得多時,備用樹將替換主樹。 最終,樹木的改變和適應是根據(jù)數(shù)據(jù)的時間和性質自動進行判斷的,而不是用戶的先驗知識。 注意,盡管如此,它仍然保留了類似于Hoofding邊界的樹的構建和分割算法,類似于VFDT。

In experiments, the authors mainly compared the Hoeffding Adaptive Tree with CVFDT (Concept Adapting Very Fast Decision Tree). CVFDT itself is formulated by the same authors of VFDT, it is basically VFDT with an attempt to include concept drift. In terms of performance measured with an error rate, using a synthetically generated dataset with a massive concept change, the algorithm managed to achieve a lower error rate quickly compared to CVFDT i.e. faster adaption to other trees. In addition, it managed to lower memory consumption by half. However, the drawback is that this algorithm consumes the longest time, 4 times larger than CVFDT.

在實驗中,作者主要將Hoeffding自適應樹與CVFDT(概念自適應非常快決策樹)進行了比較。 CVFDT本身由VFDT的相同作者制定,基本上是VFDT,試圖包括概念漂移。 就以錯誤率衡量的性能而言,使用具有重大概念變化的綜合生成的數(shù)據(jù)集,該算法設法比CVFDT更快地實現(xiàn)了更低的錯誤率,即更快地適應了其他樹。 另外,它設法將內存消耗降低了一半。 但是,缺點是該算法耗時最長,是CVFDT的4倍。

3聚類 (3 Clustering)

Clustering is to partition a given set of objects into groups called clusters in a way that each group have similar kind of objects and is strictly different from other groups. Classifying objects into groups of similar objects with a goal of simplifying data so that a cluster can be replaced by one or few representatives is considered as a core of the clustering process. Clustering algorithms are considered as tools to cluster high volumes datasets. We have selected three latest clustering algorithms and compared them with others based on a performance metric i.e. efficient creation of clusters, the capability to handle a large number of clusters, and the chosen data structure.

聚類是將一組給定的對象劃分為稱為聚類的組,其方式是每個組具有相似的對象類型,并且與其他組完全不同。 為了簡化數(shù)據(jù),將對象分為相似對象的組,以便可以用一個或幾個代表替換群集,這被認為是群集過程的核心。 聚類算法被認為是聚類大量數(shù)據(jù)集的工具。 我們選擇了三種最新的聚類算法,并根據(jù)性能指標將它們與其他算法進行了比較,即有效創(chuàng)建集群,處理大量集群的能力以及所選的數(shù)據(jù)結構。

3.1 流KM ++聚類算法 (3.1 Stream KM++ Clustering Algorithm)

Stream KM++ clustering algorithm is based on the idea of k -MEANS++ and Lloyd’s algorithm (also called k -MEANS algorithm) [3]. Lloyd’s algorithm is one of the famous clustering algorithms. Best clustering in Lloyd’s algorithm is achieved by assigning each point to the nearest center in a given sent of centers (fixed) and MEAN of these points is considered as the best center for the cluster. Also, k -MEANS++ serves as a seeding method for Lloyd’s algorithm. It gives a good practical result and guarantees a quality solution. Both algorithms are not suitable for the data streams as they require random access to the input data.

流 KM ++聚類算法基于k -MEANS ++和勞埃德算法(也稱為k -MEANS算法) [3]。 勞埃德算法是著名的聚類算法之一。 勞埃德算法中的最佳聚類是通過將每個點分配給給定發(fā)送的中心(固定)中的最近中心來實現(xiàn)的,這些點的MEAN被認為是聚類的最佳中心。 同樣, k -MEANS ++用作勞埃德算法的播種方法。 它提供了良好的實踐結果,并保證了質量解決方案。 這兩種算法都不適合數(shù)據(jù)流,因為它們需要隨機訪問輸入數(shù)據(jù)。

Def: Stream KM++ computes a representative small weighted sample of the data points (known as a coreset) via a non-uniform sampling approach in one pass, then it runs k -MEANS++ on the computed sample and in a second pass, points are assigned to the center of nearest cluster greedily. Non-uniform sampling is a time-consuming task. The use of coreset trees has decreased this time significantly. A coreset tree is a binary tree that is associated with hierarchical divisive clustering for a given set of points. One starts with a single cluster that contains the whole set of points and successively partitions existing clusters into two sub-clusters, such that points in one sub-cluster are far from the points in another sub-cluster. It is based on merge and reduces technique i.e. whenever two samples with the same number of input points are detected, it takes the union of these points in the merge phase and produces a new sample in the reduced phase which uses coreset trees.[4]

Def: Stream KM ++通過非均勻采樣方法在一次通過中計算數(shù)據(jù)點的代表性小加權樣本(稱為核心集),然后在計算的樣本上運行k -MEANS ++,在第二次通過中,分配點貪婪地到達最近的星團的中心。 非均勻采樣是一項耗時的任務。 這次, 核心集樹的使用已顯著減少。 核心集樹是與給定點集的分層除法聚類關聯(lián)的二叉樹。 一個群集從包含整個點集的單個群集開始,然后將現(xiàn)有群集依次劃分為兩個子群集,以使一個子群集中的點與另一個子群集中的點相距甚遠。 它基于合并和歸約技術,即,每當檢測到兩個具有相同輸入點數(shù)量的樣本時,它將在合并階段合并這些點,并在歸約階段使用核心集樹生成一個新樣本。[4]

In comparison with BIRCH (A top-down hierarchical clustering algorithm), Stream KM++ is slower but in terms of the sum of squared errors, it computes a better solution up to a factor of 2. Also, it does not require trial-and-error adjustment of parameters. Quality of StreamLS algorithm is comparable to Stream KM++ but running time of Stream KM++ scales much better with the number of cluster centers than StreamLS. Stream KM++ is faster on large datasets and computes solutions that are on a par with k -MEANS++.

與BIRCH(自上而下的層次聚類算法)相比, Stream KM ++較慢,但就平方誤差的總和而言,它計算出的最佳解法高達2倍。而且,它不需要反復試驗。參數(shù)的誤差調整。 流 LS算法的質量可媲美流 KM ++但比流 LS集群中心的數(shù)量要好得多流 KM ++秤的運行時間。 在大型數(shù)據(jù)集上, Stream KM ++更快,并且可以計算與k -MEANS ++相當?shù)慕鉀Q方案。

3.2動態(tài)物聯(lián)網(wǎng)數(shù)據(jù)流的自適應集群 (3.2 Adaptive Clustering for Dynamic IoT Data Streams)

A dynamic environment such as IoT where the distribution of data streams changes overtime requires a type of clustering algorithm that can adapt according to the flowing data. Many stream clustering algorithms are dependent on different parameterization to find the number of clusters in data streams. Determining the number of clusters in the unknown flowing data is one of the key tasks in clustering. To deal with this problem, an adaptive clustering method is introduced by P. B. Daniel Puschmann and R. Tafazoll in this research paper [5]. It is specifically designed for IoT stream data. This method updates the cluster centroids upon detecting a change in the data stream by analyzing its distribution. It allows us to create dynamic clusters and assign data to these clusters by investigating data distribution settings at a given time instance. It is specialized in adapting to data drifts of the data streams. Data drift describes real concept drift (explained in 2.3) that is caused by changes in the streaming data. It makes use of data distribution and measurement of the cluster quality to detect the number of categories which can be found inherently in the data stream. This works independently of having prior knowledge about data and thus discover inherent categories.

諸如IoT之類的動態(tài)環(huán)境,其中數(shù)據(jù)流的分布會隨著時間的變化而變化,這需要一種可以根據(jù)流動數(shù)據(jù)進行適應的聚類算法。 許多流聚類算法依賴于不同的參數(shù)化來查找數(shù)據(jù)流中的聚類數(shù)量。 確定未知流動數(shù)據(jù)中的聚類數(shù)量是聚類的關鍵任務之一。 為了解決這個問題,PB Daniel Puschmann和R.Tafazoll在本文中介紹了一種自適應聚類方法[5]。 它是專門為物聯(lián)網(wǎng)流數(shù)據(jù)設計的。 此方法通過分析數(shù)據(jù)流的分布來檢測數(shù)據(jù)流中的變化,從而更新群集質心。 它允許我們通過研究給定時間實例的數(shù)據(jù)分發(fā)設置來創(chuàng)建動態(tài)集群并將數(shù)據(jù)分配給這些集群。 它專門用于適應數(shù)據(jù)流的數(shù)據(jù)漂移。 數(shù)據(jù)漂移描述了由流數(shù)據(jù)的更改引起的實際概念漂移(在2.3中進行了說明) 。 它利用數(shù)據(jù)分布和群集質量的度量來檢測可以在數(shù)據(jù)流中固有地找到的類別數(shù)量。 這獨立于具有有關數(shù)據(jù)的先驗知識而工作,因此可以發(fā)現(xiàn)固有類別。

A set of experiments has been performed on synthesized and intelligent live traffic data scenarios in this research paper [5]. These experiments are performed using both adaptive and non-adaptive clustering algorithms and results are compared based on cluster’ quality metric (i.e. silhouette coefficient). The result has shown that the adaptive clustering method produces clusters with 12.2 percent better in quality than non-adaptive.

在這篇研究論文中,已經(jīng)對合成的和智能的實時交通數(shù)據(jù)場景進行了一組實驗[5]。 這些實驗使用自適應和非自適應聚類算法進行,并基于聚類的質量度量(即輪廓系數(shù))比較結果。 結果表明,自適應聚類方法產(chǎn)生的聚類質量比非自適應聚類好12.2%。

In comparison to Stream KM++ algorithm explained in 3.1, it can be induced that Stream

與3.1中解釋的Stream KM ++算法相比,可以推斷出Stream

KM++ is not designed for evolving data streams.

KM ++不適用于不斷發(fā)展的數(shù)據(jù)流。

3.3 PERCH-一種用于極端聚類的在線分層算法 (3.3 PERCH-An Online Hierarchical Algorithm for Extreme Clustering)

The number of applications requiring clustering algorithms is increasing. Therefore, their requirements are also changing due to the rapidly growing data they contain. Such modern clustering applications need algorithms that can scale efficiently with data size and complexity.

需要集群算法的應用程序數(shù)量正在增加。 因此,由于其中包含的數(shù)據(jù)快速增長,它們的要求也在發(fā)生變化。 這樣的現(xiàn)代集群應用程序需要能夠隨著數(shù)據(jù)大小和復雜性而有效擴展的算法。

As many of the currently available clustering algorithms can handle the large datasets with high dimensionality, very few can handle the datasets with many clusters. This is also true for Stream Mining clustering algorithms. As the streaming data can have many clusters, this problem of having a large number of data points with many clusters is known as an extreme clustering problem. PERCH (Purity Enhancing Rotations for Cluster Hierarchies) algorithm scales mildly with high N (data points) and K (clusters), and thus addresses the extreme clustering problem. Researchers of the University of Massachusetts Amherst published it in April 2017.

由于許多當前可用的聚類算法可以處理具有高維數(shù)的大型數(shù)據(jù)集,因此很少能處理具有許多聚類的數(shù)據(jù)集。 對于Stream Mining聚類算法也是如此。 由于流數(shù)據(jù)可以具有許多群集,因此具有許多群集的大量數(shù)據(jù)點的問題被稱為極端群集問題。 PERCH(用于群集層次結構的純度增強旋轉)算法在N(數(shù)據(jù)點)和K(群集)較高的情況下進行適度縮放,從而解決了極端的群集問題。 麻省大學阿默斯特分校的研究人員于2017年4月發(fā)表了該論文。

This algorithm maintains a large tree data structure in a well efficient manner. Tree construction and its growth are maintained in an increment fashion over the incoming data points by directing them to leaves while maintaining the quality via rotation operations. The choice of a rich tree data structure provides an efficient (logarithmic) search that can scale to large datasets along with multiple clustering that can be extracted at various resolutions. Such greedy incremental clustering procedures give rise to some errors which can be recovered using rotation operations.

該算法以高效的方式維護大型樹數(shù)據(jù)結構。 通過將傳入的數(shù)據(jù)點定向到葉子,并通過旋轉操作保持質量,以增量方式保持樹的構造及其生長。 豐富樹數(shù)據(jù)結構的選擇提供了一種有效的(對數(shù))搜索,該搜索可以縮放到大型數(shù)據(jù)集,并且可以以各種分辨率提取多個聚類。 這種貪婪的增量聚類過程會引起一些錯誤,這些錯誤可以使用旋轉操作來恢復。

It is being claimed in [6] that this algorithm constructs a tree with the perfect dendrogram purity regardless of the number of data points and without the knowledge of the number of clusters. This is done by recursive rotation procedures. To achieve scalability, another type of rotation operation is also introduced in this research paper which encourages balance and an approximation that enables faster point insertions. This algorithm also possesses a leaf collapsing mode to cope with limited memory challenge i.e. when the dataset does not fit in the main memory (like data streams). In this mode, the algorithm expects another parameter which is an upper bound on the number of leaves in the cluster tree. Once the balance rotations are performed, the COLLAPSE procedure is invoked which merges leaves as necessary to meet the upper bound.

在[6]中要求保護的是,該算法構建的樹具有完美的樹狀圖純度,而與數(shù)據(jù)點的數(shù)量無關,并且不知道簇的數(shù)量。 這是通過遞歸循環(huán)過程完成的。 為了實現(xiàn)可伸縮性,本研究論文中還引入了另一種旋轉操作類型,該操作鼓勵平衡和近似實現(xiàn)更快的點插入。 該算法還具有葉子折疊模式以應對有限的存儲挑戰(zhàn),即當數(shù)據(jù)集不適合主存儲時(如數(shù)據(jù)流)。 在這種模式下,算法需要另一個參數(shù),該參數(shù)是群集樹中葉數(shù)的上限。 完成天平旋轉后,將調用COLLAPSE過程,該過程會根據(jù)需要合并葉子以達到上限。

In comparison with other online and multipass tree-building algorithms, perch has achieved the highest dendrogram purity in addition to being efficient. It is also competitive with all other scalable clustering algorithms. In comparison with both type of algorithms which uses the tree as a compact data structure or not, perch scales best with the number of clusters K. In comparison with BIRCH, which is based on top-down hierarchical clustering methods in which leaves of each internal node are represented by MEAN and VARIANCE statistics, and these node statistics are used to insert points greedily and there are no rotation operations performed, it has been proved that BIRCH constructs worst clustering as compared to its competitors. In comparison with Stream KM++, it shows that coreset construction is an expensive operation and it does not scale to the extreme clustering problem where K is very large.

與其他在線和多遍樹構建算法相比,鱸魚除效率高外,還獲得了最高的樹狀圖純度。 它與所有其他可伸縮群集算法相比也具有競爭力。 與使用樹作為緊湊數(shù)據(jù)結構或不使用樹作為緊湊數(shù)據(jù)結構的兩種算法相比,鱸魚的最佳擴展群集數(shù)為K。與BIRCH相比,BIRCH是基于自上而下的層次聚類方法,其中每個內部葉子節(jié)點由MEAN和VARIANCE統(tǒng)計信息表示,這些節(jié)點統(tǒng)計信息用于貪婪地插入點,并且不執(zhí)行任何旋轉操作,已證明BIRCH與其競爭者相比構成最差的聚類。 與Stream KM ++相比,它表明核心集構建是一項昂貴的操作,并且無法擴展到K非常大的極端聚類問題。

PERCH algorithm has been applied on a variety of real-world datasets by writers of this research paper and it has proven as correct and efficient. [6]

本研究的作者將PERCH算法應用于各種現(xiàn)實數(shù)據(jù)集,并被證明是正確有效的。 [6]

4頻繁項集挖掘 (4 Frequent Itemset mining)

Frequent Itemset Mining refers to mine a pattern or item that appears frequently from a dataset. Formally, assume there exist a set I comprising of n distinct items {i1, i2, . . . , in}. A subset of it X, X?I is called a pattern. The source of data to be mined is transactions. If a pattern is a subset of a transaction denoted t, X?t, then it is said X occurs in t. A metric for Frequent Item Mining is called support. Support of a pattern is the number of how many transactions in which that pattern occurs. For a natural number min sup, given as a parameter, any pattern in which support is greater or equal to it is called a frequent pattern.

頻繁項集挖掘是指挖掘從數(shù)據(jù)集中頻繁出現(xiàn)的模式或項目。 形式上,假設存在一個集合I ,該集合I由n個不同的項{i 1 ,i 2 ,...組成。 。 。 ,in}中 。 X的子集X?I稱為模式。 要挖掘的數(shù)據(jù)源是交易。 如果模式是表示為t的事務的子集X?t ,則稱X出現(xiàn)在t中 。 頻繁項目挖掘的度量標準稱為支持 。 模式的支持是發(fā)生該模式的事務數(shù)量。 對于作為參數(shù)給出的自然數(shù)min sup ,任何支持大于或等于它的模式都稱為頻繁模式。

One of the most famous data structures for Frequent Itemset Mining is FP-Tree [7]. However, FP-Tree requires multiple scanning of item databases, something that is very costly for fast-moving data streams. An ideal algorithm should have a one-pass like property to function optimally.

頻繁項集挖掘最著名的數(shù)據(jù)結構之一是FP-Tree [7]。 但是,FP-Tree需要對項目數(shù)據(jù)庫進行多次掃描,這對于快速移動的數(shù)據(jù)流而言非常昂貴。 理想的算法應具有類似單次通過的屬性才能發(fā)揮最佳功能。

Common recurrent property in Data Stream Mining is the utilization of window models. According to Jin et al, there are three types of window model [8]

數(shù)據(jù)流挖掘中的常見重復屬性是窗口模型的利用。 根據(jù)Jin等人的說法,窗口模型有三種類型[8]

1. Landmark window In this window model, the focus is to find frequent itemsets from a starting time a to time point b. Consequently, if a is set to 1, then the Mining Algorithm will mine the entire data stream

1. 地標窗口在此窗口模型中,重點是查找從開始時間a到時間點b的頻繁項目集。 因此,如果將a設置為1,則挖掘算法將挖掘整個數(shù)據(jù)流

2. Sliding window From a time point b and given the length of the window a, the algorithm will mine item from time b ? a + 1 and b. In other words, it only considers item that enters our window stream at a time

2. 滑動窗口從時間點b開始并給定窗口a的長度,該算法將從時間b ? a + 1和b挖掘項目。 換句話說,它只是認為,在同一時間進入我們的窗口流項目

3. Damped window model In this model, we give more weight to newly arrived items. This can be done simply by assigning a decaying rate to the itemsets. 1, t]

3. 阻尼窗口模型在此模型中,我們將更多權重分配給新到達的物品。 只需將衰減率分配給項目集即可完成。 1,t]

4.1基于FP-Tree挖掘數(shù)據(jù)流中最大頻繁項集 (4.1 Mining Maximal Frequent Itemsets in Data Streams Based on FP- Tree)

This work [9] introduces a new algorithm FpMFI-DS, which is an improvement of FpMFI (frequent pattern tree for maximal frequent itemsets) [10] algorithm for the data stream. FpMFI itself is an algorithm to compress the FP-Tree and to check the superset pattern optimally.

這項工作[9]引入了一種新的算法FpMFI-DS,它是針對數(shù)據(jù)流的FpMFI(用于最大頻繁項集的頻繁模式樹) [10]算法的改進。 FpMFI本身是一種算法,用于壓縮FP-Tree并以最佳方式檢查超集模式。

FmpMFI-DS is designed to store the transactions in Landmark Window or Sliding Windows. The consequence of adapting Windows for mining is that the FP-Tree needs to be updated when the transaction is out of the window. This is done by tidlist a list of transactions’ ID and a pointer to the ultimate node of the transaction in the tree. Other important details of FpMFI-DS are due to the requirement of having a one-pass algorithm, instead of ordering items in FP-Tree with its frequency, it is done lexicographically.

FmpMFI-DS旨在將事務存儲在“地標窗口”或“滑動窗口”中。 使Windows適用于挖掘的結果是,當事務不在窗口中時,需要更新FP-Tree。 這是通過tidlist做交易ID列表和一個指向樹中的交易的最終節(jié)點。 FpMFI-DS的其他重要細節(jié)是由于需要使用一次遍歷算法,而不是按頻率順序對FP-Tree中的項目進行排序,而是按字典順序進行。

A further improvement of FpMFI-DS is the introduction of a new technique called ESEquivPS. In ESEquivPS. From an experiment by the authors, the size of the search space can be reduced by about 30%.

FpMFI-DS的進一步改進是引入了一種稱為ESEquivPS的新技術。 在ESEquivPS中。 根據(jù)作者的實驗,搜索空間的大小可以減少約30%。

4.2在事務數(shù)據(jù)庫和動態(tài)數(shù)據(jù)流中挖掘最大頻繁模式:一種基于火花的方法 (4.2 Mining maximal frequent patterns in transactional databases and dynamic data streams: A spark-based approach)

In this work [11], Karim et al describes how to build a tree-like structure to mine Maximal Frequent Pattern effectively. Maximal Frequent Patterns refers to patterns with a maximal number of items, that is: it should not have any superset patterns.

在這項工作中[11], Karim等人描述了如何構建樹狀結構來有效挖掘最大頻繁模式。 最大頻繁模式是指項目數(shù)量最多的模式,即:它不應具有任何超集模式。

For example, assume that in our transaction database, there are three patterns AB, BC, and ABD with the occurrences of 7, 5, and 3. If we decide that the minimum support is 2, all of them are frequent patterns. However, AB is not a maximal frequent pattern, since it is a subset of ABD which is a frequent pattern.

例如,假設在我們的交易數(shù)據(jù)庫中,存在三種模式AB,BC和ABD,它們的出現(xiàn)次數(shù)分別為7、5和3。如果我們確定最小支持為2,則它們都是頻繁模式。 但是,AB不是最大的頻繁模式,因為它是作為頻繁模式的ABD的子集。

The author utilized prime numbers for having faster computation and lower memory computation. The idea is that each distinct item from the database is represented as a distinct prime number. A transaction is represented as the multiplication of the prime number representing each item in that transaction which is called Transaction Value. From these formulations, there are few interesting properties.

作者利用質數(shù)來實現(xiàn)更快的計算和更低的內存計算。 這個想法是將數(shù)據(jù)庫中每個不同的項目都表示為一個不同的素數(shù)。 交易表示為代表該交易中每個項目的質數(shù)的乘積,稱為交易值。 根據(jù)這些公式,幾乎沒有有趣的特性。

1. A huge number of possible distinct items For a 32-bit integer, the biggest prime number is 105097565 thus theoretically we can represent around 100 million different items. However, the computation of Transaction Value may result in Integer Overflow, thus class like BigInteger is used.

1. 大量可能的不同項目對于32位整數(shù),最大質數(shù)為105097565,因此從理論上講,我們可以表示大約1億個不同項目。 但是,交易值的計算可能會導致整數(shù)溢出,因此使用了BigInteger之類的類。

2. No two different transactions have the same Transaction Value. Since the Transaction Value is the product of prime numbers, it is trivial to show that every Transaction Value should be unique and bijective.

2. 沒有兩個不同的交易具有相同的交易價值 。 由于交易價值是素數(shù)的乘積,因此證明每個交易價值都應該是唯一的且是雙射的很簡單。

3. Greatest Common Divisor to denote common item If δ is the GCD of the Transaction Value of a transaction α and the Transaction Value of a transaction β, we can get the common items from those two transactions by factoring δ

3. 表示公共項目的最大公因數(shù)如果δ是交易的交易價值α的GCD和交易的交易價值β的GCD,我們可以通過分解δ來從這兩個交易中獲得公共項目。

With the Transaction Value of the transaction, a tree-like structure called ASP-tree is constructed. Inside this structure, the Transaction Value and its count is preserved. Furthermore, the tree contains the following invariants

利用交易的交易價值,構造了一個稱為ASP-tree的樹狀結構。 在此結構內部,保留了交易值及其計數(shù)。 此外,樹包含以下不變量

1. Every node α is a descendant direct or indirect of all nodes in which TV value is a multiple of TV of α.

1.每個節(jié)點α是TV值是α的TV的倍數(shù)的所有節(jié)點的直接或間接后代。

2. The count of each node is the total support of the transaction represented by its TV

2.每個節(jié)點的數(shù)量是其電視代表的交易的總支持

The authors also introduce the MFPAS algorithm to generate the Maximal Frequent Itemsets from the ASP-tree. The algorithm simply scans the tree bottom-up and do necessary pruning to get the relevant Transaction Value to be decoded to a real list of items. Interestingly, all information to get the frequent itemset are available on the tree without a need to scan the database.

作者還介紹了MFPAS算法,以從ASP樹生成最大頻繁項集。 該算法僅對樹進行自下而上的掃描,并進行必要的修剪,以獲取相關的交易值,以將其解碼為真實的項目列表。 有趣的是,獲取頻繁項集的所有信息都可以在樹上找到,而無需掃描數(shù)據(jù)庫。

The procedure is suitable for either Batch or Data Stream environment. The authors include a Spark Implementation for this procedure. It is also shown that the differences between Batch or Data Stream lie only on using correct Spark API i.e. use Spark Stream API when doing works on stream data, while the proposed algorithm remains intact.

該過程適用于批處理或數(shù)據(jù)流環(huán)境。 作者包括此過程的Spark實施。 還顯示了批處理或數(shù)據(jù)流之間的區(qū)別僅在于使用正確的Spark API,即在對流數(shù)據(jù)進行處理時使用Spark Stream API,而所提出的算法保持完整。

5匯總表 (5 Summary Table)

六,結論 (6 Conclusion)

In this report, we have conducted a survey of recent streaming data algorithms. Each algorithm is explained briefly along with key points and comparisons with other algorithms of the same class. In the end, we have presented a summary table with a crux of all the algorithms explained. We found out that recently introduced algorithms have solved the data problems (e.g. concept drift, data shredding, and sampling) and few of the main challenges (e.g. Memory limitation and data structure) which were considered as drawbacks of algorithms a few years back. As the wheel of advancement has no destination, we expect further evolution in data streams mining algorithms, opening research lines for further developments.

在此報告中,我們對最近的流數(shù)據(jù)算法進行了調查。 簡要說明了每種算法,以及要點和與同類的其他算法的比較。 最后,我們給出了一個匯總表,其中包含了所有已解釋算法的關鍵。 我們發(fā)現(xiàn),最近推出的算法解決了數(shù)據(jù)問題(例如概念漂移,數(shù)據(jù)分解和采樣)以及少數(shù)主要挑戰(zhàn)(例如內存限制和數(shù)據(jù)結構),這些挑戰(zhàn)被視為幾年前算法的缺點。 由于前進的輪子沒有終點,我們希望數(shù)據(jù)流挖掘算法會進一步發(fā)展,為進一步的發(fā)展打開研究路線。

翻譯自: https://medium.com/swlh/data-streams-mining-c5012ff1b4c1

數(shù)據(jù)挖掘流程

總結

以上是生活随笔為你收集整理的数据挖掘流程_数据流挖掘的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內容還不錯,歡迎將生活随笔推薦給好友。

亚洲精区二区三区四区麻豆 | av免费电影在线 | 久久麻豆精品 | 日本三级人妇 | 亚洲国产免费av | 国产欧美日韩精品一区二区免费 | 成人黄色在线观看视频 | 精品视频免费在线 | 在线免费高清 | 欧美a级片免费看 | 国产精品视频久久 | 狠狠操狠狠干2017 | 精品国产乱码久久久久久三级人 | 偷拍福利视频一区二区三区 | 日日干av | 成人免费视频观看 | 免费观看性生交大片3 | 在线观看完整版免费 | 久99久久 | 亚洲国产欧美在线看片xxoo | 色多多污污在线观看 | 精品亚洲成a人在线观看 | 免费看的国产视频网站 | 久久草精品 | 国产日韩欧美在线看 | 91人人视频在线观看 | 久久精品麻豆 | 国产精品视频专区 | 日韩欧美成人网 | 亚洲综合在线一区二区三区 | 亚洲黄网址 | 国产午夜精品福利视频 | av线上看 | 97免费在线视频 | 亚洲1级片 | 93久久精品日日躁夜夜躁欧美 | 一级片在线 | 久久9视频 | 97在线播放 | 在线观看av大片 | 五月的婷婷| 精品国产乱码久久久久久1区2匹 | 激情五月伊人 | 狠狠操狠狠干天天操 | 国产不卡一二三区 | 国产激情电影综合在线看 | 国内精品久久久久久久97牛牛 | 伊色综合久久之综合久久 | 久久久网址 | 色多多污污在线观看 | 91精品国产91久久久久久三级 | 日韩精品一区电影 | 波多野结衣在线观看视频 | 国产亚洲情侣一区二区无 | 久久黄页 | 99国产精品久久久久老师 | 九九99 | 国产激情电影综合在线看 | 成年人在线观看免费视频 | 伊色综合久久之综合久久 | 国产麻豆精品一区二区 | 中文字幕一二 | 手机在线日韩视频 | 激情欧美丁香 | 五月天综合在线 | 成人欧美亚洲 | 中文字幕日韩无 | 啪嗒啪嗒免费观看完整版 | 美女视频黄,久久 | 国产成人精品亚洲日本在线观看 | 日韩高清av在线 | 黄污在线观看 | 激情欧美xxxx | 国产91精品高清一区二区三区 | 97在线视频免费 | 日韩精品欧美专区 | 久久中文网 | 五月开心综合 | 久久精品一级片 | 亚洲伊人网在线观看 | 久久看片网| 97视频在线观看网址 | 亚洲狠狠婷婷综合久久久 | 国产99久久久精品视频 | 在线免费三级 | 精品久久久久久亚洲综合网 | 国产精品久久久久久一区二区三区 | 欧美日韩性视频 | 成人免费看电影 | 亚洲欧美观看 | 97碰视频| 婷婷久久一区 | 国产黄色片网站 | 久久草草热国产精品直播 | 亚洲va天堂va欧美ⅴa在线 | 91伊人久久大香线蕉蜜芽人口 | 黄色av免费电影 | 国产一卡二卡在线 | 96在线| 又黄又色又爽 | 97操碰| 国产精品免费观看在线 | 三上悠亚一区二区在线观看 | 日韩欧美视频免费看 | 最新免费中文字幕 | 亚洲精品毛片一级91精品 | 久久无码精品一区二区三区 | av3级在线 | 日韩精品欧美专区 | 日韩在线观看一区二区 | 伊甸园永久入口www 99热 精品在线 | 97av精品 | 亚洲精品小区久久久久久 | 五月婷影院 | 色综久久| 在线视频观看成人 | 久久精品久久久久电影 | 久久成人综合 | 福利视频一二区 | 中文字幕在线播放视频 | 99精品视频在线播放免费 | 亚洲国产精品小视频 | 久久综合色一综合色88 | 91porny九色91啦中文 | 91福利社区在线观看 | 91精品视频一区 | 欧美在线视频免费 | 韩国在线一区二区 | 免费av在 | 国产不卡av在线播放 | 国产精品成人一区二区三区吃奶 | 激情伊人五月天 | 亚洲精品国产精品国自产观看 | 精品一二| 日本狠狠色| 色午夜影院 | 成人av动漫在线 | 免费看污片| 国产精品国产亚洲精品看不卡15 | 丁香花在线观看视频在线 | 亚洲一区久久久 | a级免费观看 | 911国产精品 | 黄色小网站在线观看 | 麻豆视频在线看 | 国产精品一区二区62 | 狠狠操操| 精品一区二区三区四区在线 | 国产原创在线视频 | 国产日本亚洲高清 | 精品视频久久久 | 久久永久视频 | 婷婷av色综合 | 日韩精品中文字幕在线播放 | 91黄色免费网站 | 99久久久国产精品免费99 | 色视频网站在线观看一=区 a视频免费在线观看 | 手机成人免费视频 | 日韩性色 | 欧美另类美少妇69xxxx | 在线视频福利 | 国产精品免费久久久久久久久久中文 | 狠狠色狠狠色合久久伊人 | 亚洲激情 欧美激情 | 久草视频网 | av一区二区三区在线观看 | 成人在线播放免费观看 | 国产高清视频在线播放 | 一区二区视频在线免费观看 | 中文字幕av在线电影 | 干av在线 | 中文字幕二区在线观看 | 亚洲视频久久久 | 久久成人精品电影 | 国产精品二区在线 | 91亚洲夫妻 | 精品美女久久久久久免费 | 日日爽视频 | 天天干夜夜爱 | 日韩和的一区二在线 | 午夜av电影院| 狠狠的干 | 精选久久| 久久国产香蕉视频 | 在线99视频 | 色黄久久久久久 | 四虎影视成人精品国库在线观看 | 久久久这里有精品 | 又黄又爽的免费高潮视频 | av中文字幕不卡 | 久久国产精品电影 | 日韩视频一区二区在线观看 | 日日夜色 | 国产亚洲一级高清 | 91丨九色丨蝌蚪丰满 | 天天综合网 天天 | 免费看一级特黄a大片 | 日韩美一区二区三区 | 久久免费观看视频 | 日韩欧美视频在线观看免费 | 亚洲在线 | 毛片无卡免费无播放器 | 国产69精品久久99不卡的观看体验 | 中文字幕 欧美性 | 四虎在线永久免费观看 | 欧美日韩高清在线观看 | 中文免费在线观看 | 视频福利在线 | 国产精品一区二区久久 | 亚洲综合情 | 国产乱对白刺激视频在线观看女王 | 最近中文字幕免费大全 | 亚洲精品在线免费播放 | 久草在线欧美 | 91九色最新地址 | 久久成年人视频 | 欧美日韩精品在线观看视频 | 免费三级影片 | 久久另类视频 | 国产成人久久久77777 | 99精品福利 | 欧美一级片在线免费观看 | 福利一区视频 | 五月婷婷丁香六月 | 久久国内精品视频 | 日韩av片免费在线观看 | 91精品日韩 | 亚洲视频在线免费看 | 亚洲精品国偷自产在线99热 | 亚洲激情av | 免费看的黄网站软件 | 涩涩网站在线观看 | 久草免费手机视频 | 中文久久精品 | 激情久久伊人 | 日日噜噜噜噜夜夜爽亚洲精品 | 亚洲免费不卡 | 精品亚洲欧美无人区乱码 | 亚洲涩涩一区 | 91精品国产高清自在线观看 | 亚洲欧美在线观看视频 | 免费成人看片 | 久久不卡国产精品一区二区 | 在线激情av电影 | 91九色视频在线播放 | 六月婷色| 麻豆国产在线播放 | 欧美视频不卡 | 国产人免费人成免费视频 | 久久免费成人 | 麻豆免费观看视频 | 日本狠狠色 | 久久综合狠狠综合 | 婷婷五月在线视频 | 成人毛片a| 天天操夜夜摸 | 亚洲高清不卡av | 午夜精品一区二区三区四区 | 99re6热在线精品视频 | 一区精品久久 | 97爱爱爱| 激情欧美一区二区三区免费看 | 国产欧美精品在线观看 | 亚洲欧美视频在线 | 国产一区二区三区久久久 | 亚洲精品小区久久久久久 | 欧美精品黑人性xxxx | 日韩一级片大全 | 日韩成人看片 | 亚洲成人xxx| 欧美大片在线观看一区 | 久久黄色成人 | 九色视频网址 | 中文视频在线看 | 国产精品99久久久久久人免费 | 2023国产精品自产拍在线观看 | 午夜精品久久久久久久久久久 | 在线观看免费观看在线91 | 人人干人人草 | 国产又粗又猛又爽又黄的视频免费 | 婷婷激情小说网 | 国内丰满少妇猛烈精品播放 | 亚洲片在线资源 | 亚洲黄色免费 | 欧美日韩在线观看一区 | 97免费在线观看视频 | 韩国av不卡 | 亚洲高清精品在线 | 久久久美女 | 国内精品免费 | 麻豆视频www | 久久国产电影 | 婷婷色综合 | 精品国内自产拍在线观看视频 | 91精品一区二区三区蜜桃 | 又黄又爽的免费高潮视频 | 国产精品人成电影在线观看 | 国产一级淫片在线观看 | 免费在线观看黄网站 | 狠狠操影视| 免费观看www7722午夜电影 | 免费毛片一区二区三区久久久 | 国产高清在线免费 | 91精品视频一区二区三区 | 黄色软件在线看 | 四虎国产视频 | 亚洲欧洲精品一区 | 九九视频免费观看视频精品 | 久久视频精品 | 欧美综合在线视频 | 激情综合婷婷 | 日韩一区精品 | av软件在线观看 | 1000部国产精品成人观看 | 日本丰满少妇免费一区 | 西西www4444大胆视频 | 九九九在线观看视频 | 国内成人精品2018免费看 | 天天干,天天射,天天操,天天摸 | www..com黄色片 | 99综合电影在线视频 | 国产精品 日韩 | 五月婷婷在线观看视频 | 国产日韩欧美视频在线观看 | 亚洲国产精品999 | 综合久久久久久 | 17videosex性欧美 | 久久国产精品成人免费浪潮 | 国内视频在线 | 久草干 | 日韩在线 一区二区 | 久久精品www人人爽人人 | 伊人网av | 日韩电影在线一区二区 | 欧美精品久久久久久久亚洲调教 | 久久久官网| 久久久久久久免费看 | 久草在线91 | 国产免费一区二区三区最新6 | 91免费高清| 伊人丁香 | 久久天天操 | 国产精品乱码久久久久 | 成人 亚洲 欧美 | 国产精品久久久久av | 免费日韩一区 | 九九免费在线观看 | av在线com| 992tv在线观看网站 | 免费特级黄色片 | 在线视频日韩欧美 | 伊人成人激情 | 四川妇女搡bbbb搡bbbb搡 | 2018好看的中文在线观看 | 亚洲综合色婷婷 | 成人av一区二区在线观看 | 国产成人久久精品77777 | 成人综合婷婷国产精品久久免费 | 在线你懂的视频 | 五月婷婷六月丁香在线观看 | 亚洲国产三级 | 国产日韩精品一区二区在线观看播放 | 精品国产日本 | 中文字幕的| 黄色一级网 | 日韩毛片久久久 | 精品久久久久久国产 | 亚洲 欧美 变态 国产 另类 | 五月激情婷婷丁香 | 国产精品成人在线 | 日韩综合精品 | 欧美福利网站 | 黄色电影在线免费观看 | 又紧又大又爽精品一区二区 | 午夜精品麻豆 | 69久久99精品久久久久婷婷 | 精品久久九九 | 国产中文伊人 | 久久激情五月婷婷 | 黄色国产在线 | 日韩视频免费在线观看 | 四虎影视成人 | 久久久久久久久久久久电影 | 中文字幕在线观看视频网站 | 成年人app网址 | 色综合天天综合在线视频 | 美女av免费看 | 国产自产在线视频 | 97超碰国产在线 | 亚洲精品在线国产 | 国产一级在线视频 | 日韩午夜精品福利 | 91热精品 | av中文字幕av | 亚洲欧洲成人 | 欧美国产日韩激情 | 婷婷色五 | www激情网| 亚洲天堂网在线观看视频 | 五月天婷婷在线视频 | 久久免费视频这里只有精品 | 中文字幕在线有码 | 韩国av在线播放 | 久久精品影片 | 最新av在线网站 | 婷婷在线视频观看 | 久9在线| 亚洲永久精品视频 | 久久免费看a级毛毛片 | 午夜精品久久久久久久久久久久久久 | 天天射天天干天天插 | 久久精品999 | 免费在线观看成人小视频 | 香蕉免费在线 | 黄色成年网站 | 在线播放一区二区三区 | 777xxx欧美 | 激情久久伊人 | 亚洲更新最快 | 国产精品18久久久久久vr | 亚洲视频1| 一本一本久久aa综合精品 | 国产精品国产三级国产不产一地 | 在线观看中文字幕2021 | 亚洲欧美视频网站 | 国产又粗又猛又色 | 天天干天天干天天操 | 激情伊人五月天久久综合 | 黄色小说网站在线 | 久久久久久国产精品999 | 免费91麻豆精品国产自产在线观看 | 中文字幕中文字幕中文字幕 | 久久这里只有精品首页 | 日韩欧美高清在线 | av短片在线观看 | 中文字幕高清在线 | 四虎成人免费观看 | www.日本色 | 日韩电影久久 | 国产无套一区二区三区久久 | 成人免费观看网址 | 99视频黄 | 中文字幕免费一区二区 | 久久免费国产 | 国产亚洲欧洲 | 免费看黄网站在线 | 精品免费一区二区三区 | 婷婷五情天综123 | 国产精品专区在线观看 | 最新av观看| 国产视频一区在线播放 | 日韩免费视频在线观看 | 日韩免费一级电影 | 视频在线观看91 | 少妇自拍av| 在线播放国产一区二区三区 | 人人干人人艹 | 国产自偷自拍 | 国产二区视频在线观看 | 亚洲人成在线观看 | 婷婷六月色 | 国产精品中文字幕在线观看 | 亚洲自拍偷拍色图 | 欧美a影视 | 欧美精品国产综合久久 | 国产免费中文字幕 | av成人在线电影 | 国产精品一区二区三区久久 | 国产精品综合久久 | 免费看的黄色 | 丁香六月av | 91九色网站 | 久久激情视频 久久 | 天天操天天舔天天干 | 中文字幕视频播放 | 亚洲电影久久 | 久久av观看| 99精品一级欧美片免费播放 | 国产精品久久久久久久久免费看 | www久| 国产精品一区在线观看 | 四月婷婷在线观看 | 波多野结衣视频一区二区三区 | 91完整版在线观看 | 特黄色大片| 婷婷射五月 | 免费人成网 | 中文字幕一区在线观看视频 | 9999精品视频 | 日韩高清在线一区二区三区 | av在线小说 | 91免费的视频在线播放 | 国产伦精品一区二区三区照片91 | 99爱在线观看 | 亚洲国产精品影院 | 国产成人a亚洲精品 | 久久久久久久久久久精 | 国外调教视频网站 | 国产精品2018| 日本高清中文字幕有码在线 | 亚洲国产午夜精品 | 亚洲国产精品成人女人久久 | 欧美久久99| 精品国产黄色片 | 婷婷国产精品 | 91九色蝌蚪国产 | 亚洲精品乱码白浆高清久久久久久 | 九九九热精品免费视频观看 | 久久免费在线观看 | 日韩视频二区 | 狂野欧美激情性xxxx | 欧美a级一区二区 | 亚洲精品久久久久久久不卡四虎 | 久久久久久久久久久成人 | 中文字幕乱码日本亚洲一区二区 | av观看网站 | 国产九九九精品视频 | 欧美成人tv| 久久久久久久久久久久影院 | 中文字幕中文字幕在线中文字幕三区 | 97超碰.com| 不卡视频国产 | 亚洲视频,欧洲视频 | 欧美日韩中字 | 久草在线视频新 | 亚洲丝袜一区二区 | 日本电影久久 | 国产免费亚洲 | 日韩av片免费在线观看 | 日日爽天天爽 | 国产精品视频99 | 欧美日韩中文字幕在线视频 | 婷婷六月丁 | 夜夜夜精品 | 天天干 天天摸 天天操 | 亚洲综合色站 | 免费看三级黄色片 | 狠狠做深爱婷婷综合一区 | 成人一级黄色片 | 久久国产精品99久久久久久老狼 | 特级毛片网站 | 五月激情五月激情 | 欧美一区成人 | 国产精久久久久久久 | 日韩欧美一区二区三区在线 | 亚洲欧洲中文日韩久久av乱码 | 久久精品之 | 国产精品久久久久av福利动漫 | 中文字幕av免费在线观看 | 国产精品18久久久久vr手机版特色 | 欧美a在线免费观看 | 97国产电影| 日韩欧美在线高清 | 九九免费在线视频 | 免费视频成人 | av免费福利| 日韩综合视频在线观看 | 日韩视频一 | 国产精品免费久久久久久久久久中文 | 99久久精品免费看国产一区二区三区 | 99国产精品免费网站 | 国产视频在线免费观看 | 日日夜操 | 午夜精品一区二区国产 | 国产精品黄色在线观看 | 精品久久久久久综合日本 | 亚洲精品 在线视频 | 久久久久 免费视频 | 911国产| 精品99免费 | 天天天插 | 日韩精品视频在线免费观看 | 黄色网址国产 | 亚洲 欧洲 国产 日本 综合 | 中文字幕在线观看第三页 | 免费成视频 | 欧美日韩中文在线视频 | av中文电影 | 一区二区观看 | 97免费在线观看视频 | 国产午夜精品久久久久久久久久 | 天天爽夜夜操 | 成人黄在线 | 亚洲视频播放 | 国产一区二区在线看 | 久久精品之| 亚洲国产精品第一区二区 | 天天射天天射天天射 | 中日韩三级视频 | 国产视频中文字幕 | 九色精品免费永久在线 | 久久久久久毛片 | 精品一区二区三区四区在线 | 国产精品久久嫩一区二区免费 | 国产在线精品国自产拍影院 | 高清av在线免费观看 | 免费在线国产黄色 | 99久久精品午夜一区二区小说 | 人人躁 | av黄色在线 | 青春草视频在线播放 | 久久中文精品视频 | 久久久久国产一区二区三区四区 | 嫩草91影院| 久久久香蕉视频 | 精品xxx | www.五月天婷婷.com | 久久小视频 | 欧美孕交vivoestv另类 | 久久久久久久久久久高潮一区二区 | 免费激情网 | 中文字幕在线观看视频一区二区三区 | 日韩国产精品久久久久久亚洲 | 黄色免费视频在线观看 | 国内精品久久久久久久久 | 国产在线观看地址 | 日韩av电影免费在线观看 | 九九九九热精品免费视频点播观看 | 国产精品综合久久久久 | 亚洲国产成人av网 | 成人免费观看网站 | 中中文字幕av在线 | 成人免费在线视频 | 国产精品一区二区三区在线 | 亚欧日韩av| 色资源在线 | 992tv人人网tv亚洲精品 | 狠狠色香婷婷久久亚洲精品 | 亚洲色图27p| 在线免费视频 你懂得 | 国产精品久久久久久69 | 中国一级特黄毛片大片久久 | 久久伦理电影 | 欧洲精品视频一区二区 | 欧美日韩高清在线一区 | 美女福利视频 | 美女网站在线免费观看 | 综合久久2023 | 亚洲毛片一区二区三区 | 久久99欧美| 狠狠操综合网 | 国产一级片免费视频 | 在线观看视频你懂 | 成人午夜精品久久久久久久3d | 亚洲区二区 | 国产成人性色生活片 | av片在线观看 | 在线视频 成人 | 国产一级二级三级视频 | 欧美性超爽 | 国产91丝袜在线播放动漫 | 久久精品福利 | 日本大尺码专区mv | 国产精品中文字幕在线观看 | 欧美疯狂性受xxxxx另类 | 菠萝菠萝蜜在线播放 | 2019精品手机国产品在线 | 99九九99九九九视频精品 | 国产欧美最新羞羞视频在线观看 | 欧美一级免费黄色片 | 日本久久久久久久久 | 啪啪免费视频网站 | 日韩中文字幕视频在线 | 国产尤物一区二区三区 | 婷婷久久网 | 一区二区三区高清在线观看 | 久久精品123| 超碰免费成人 | 免费在线观看成年人视频 | 麻豆成人小视频 | 色婷婷国产精品 | 在线观看一级 | 精品在线观看一区二区 | 欧美一级性生活视频 | 99性视频 | 久久久综合电影 | 免费看黄在线 | 国产免费又粗又猛又爽 | 91亚洲精品久久久中文字幕 | 欧美动漫一区二区三区 | 人交video另类hd| 夜夜操天天 | 国产精品成人自产拍在线观看 | 免费一级特黄录像 | 永久av免费在线观看 | 99在线免费观看视频 | 99色在线 | 最近中文字幕完整高清 | 日韩精品久久久久久久电影竹菊 | 日韩一区二区三区在线看 | 亚洲干视频在线观看 | 欧美作爱视频 | 日韩av三区| 日日夜夜天天射 | 999成人精品 | 亚洲欧洲精品一区二区精品久久久 | 国产.精品.日韩.另类.中文.在线.播放 | 欧美激情精品久久久久久免费 | 黄色成年网站 | 国产欧美日韩精品一区二区免费 | 91理论片午午伦夜理片久久 | 欧美日韩在线观看一区二区三区 | 久久精品视频免费观看 | 亚洲人成综合 | 日韩sese | 亚洲免费精品一区二区 | 一二三区高清 | 在线观看免费观看在线91 | 久久字幕精品一区 | 激情五月网站 | 三级在线视频观看 | 婷婷六月丁香激情 | 国产在线视频一区二区 | 亚洲国产精品一区二区久久,亚洲午夜 | 天天射射天天 | 在线a人片免费观看视频 | 国产白浆在线观看 | 日韩久久久久久久久久久久 | 99视频偷窥在线精品国自产拍 | 久久午夜网| 国产伦理久久精品久久久久_ | 日韩性片 | 国产成人一区二区三区电影 | 久久一区二区三区国产精品 | 亚洲精品天天 | 日韩一区二区三区在线观看 | 黄色av影视 | 亚洲国产精品一区二区久久hs | 米奇狠狠狠888 | 蜜臀久久99精品久久久无需会员 | 丁香视频全集免费观看 | 精品久久精品久久 | 二区三区av | 成人观看| 日韩免费观看高清 | 五月天色综合 | 国产高清第一页 | 久久婷亚洲五月一区天天躁 | 中文字幕一区二区三 | 成年人免费在线观看网站 | 久久久999精品视频 国产美女免费观看 | 国产精品白浆 | 国产精品美女久久久久aⅴ 干干夜夜 | 成人av电影免费 | 精品伦理一区二区三区 | 深爱激情五月婷婷 | 2018精品视频 | 国产高清小视频 | 在线视频 国产 日韩 | 国产精品一区二区三区视频免费 | 亚洲综合色av | 欧美三级免费 | 日韩av专区 | 亚洲精品在线观看免费 | 亚洲综合在线视频 | 久久在线视频精品 | 国产一二三精品 | 九九久久久久99精品 | 热久久精品在线 | 欧美日韩一区二区三区视频 | 国产手机精品视频 | 亚洲一级性 | 亚洲免费色 | 国产精品麻豆免费版 | 中文亚洲欧美日韩 | 国产日韩在线播放 | 国产精品午夜久久久久久99热 | 九九爱免费视频在线观看 | 久久精品首页 | 在线你懂的视频 | 欧美a免费 | 亚洲精品中文在线 | 免费高清在线观看成人 | h动漫中文字幕 | 97电影院在线观看 | 免费看久久久 | 91亚洲精品国产 | 色综合久久66 | 欧美一区二区在线看 | 亚洲国产av精品毛片鲁大师 | 中文字幕一区二区三区四区视频 | 亚洲特级毛片 | 91成版人在线观看入口 | 天天鲁一鲁摸一摸爽一爽 | 久热国产视频 | 天天操天天射天天插 | 亚洲日本一区二区在线 | 亚洲国产精品第一区二区 | 天天爱天天操天天爽 | 丝袜美腿亚洲综合 | 菠萝菠萝在线精品视频 | 天天干天天搞天天射 | 中文字幕第一页在线 | 综合成人在线 | 蜜臀久久99精品久久久无需会员 | 日日操夜 | 韩国一区二区三区在线观看 | 日韩成人邪恶影片 | 欧美淫视频| av天天干 | 国产很黄很色的视频 | av不卡中文 | 美女网站黄在线观看 | 欧美日韩久久一区 | 福利av在线 | 日韩欧美在线免费观看 | 91麻豆免费版 | 国产艹b视频 | av一级在线 | 久久国产精品系列 | 91精品秘密在线观看 | 成人国产精品久久久春色 | 免费看三片 | 在线天堂亚洲 | 午夜精品剧场 | 五月香视频在线观看 | 中文字幕亚洲精品在线观看 | 欧美日韩精品久久久 | 成年人视频在线 | 黄色毛片视频免费 | 成年人免费观看在线视频 | 中文字幕高清在线播放 | 欧美亚洲xxx | 免费美女久久99 | 国产成人一区二 | 午夜av激情 | 国产91精品一区二区绿帽 | 成人在线观看资源 | 国产色道 | 日本丰满少妇免费一区 | 久久精品中文字幕一区二区三区 | 色爱成人网 | 色综合久久久久综合体桃花网 | 亚洲最新毛片 | 91免费在线看片 | 中文字幕在线观看视频一区 | 公开超碰在线 | 久久综合九色综合久99 | 国产中文字幕国产 | 免费看一级特黄a大片 | 日本精品视频一区 | 成人 国产 在线 | 久艹在线观看视频 | 涩涩伊人| 亚洲视频专区在线 | 亚洲精品网站在线 | 成人性生交视频 | 精品嫩模福利一区二区蜜臀 | 色天天| 成年人免费av网站 | 国产中年夫妇高潮精品视频 | 久久看毛片 | 亚洲dvd | av电影久久| 五月天国产精品 | www.com久久| 国产精品一区二区精品视频免费看 | 欧美成年黄网站色视频 | 免费看日韩 | www免费看片com| 国产精品成人国产乱一区 | 国产精品毛片一区视频 | 国产99久久99热这里精品5 | 91最新中文字幕 | 久久只精品99品免费久23小说 | 91av视频在线免费观看 | 国产精品18久久久久白浆 | 韩国av一区二区三区在线观看 | 天天爽天天做 | 亚洲综合欧美日韩狠狠色 | 国产亚洲精品久久久久秋 | 二区三区av | aaa黄色毛片 | 天天射天天搞 | 国产精品av电影 | 国产精品免费高清 | 丁香婷婷激情 | 日韩激情中文字幕 | 国产福利一区二区三区在线观看 | 黄色三级在线看 | 成人国产精品久久久 | 国产高清专区 | 在线观看免费黄色 | 成 人 黄 色 片 在线播放 | 久久国产精品久久精品国产演员表 | 欧美日韩国产一二三区 | 精品国产99国产精品 | 欧美日韩首页 | 香蕉视频在线免费看 | 91片黄在线观看 | 一级特黄aaa大片在线观看 | 国产精品久久久久一区二区三区 | 国产精品欧美久久久久天天影视 | 4438全国亚洲精品在线观看视频 | 国产在线中文字幕 | 国产精品视频免费在线观看 | 国产一区不卡在线 | 国产美女精品视频 | 国内久久| 中文字幕在线影视资源 | 久久成人人人人精品欧 | 久久久久国产精品一区 | 91在线免费播放视频 | av在线h | 在线探花 | 国产小视频在线免费观看视频 | 色伊人网 | 91激情视频在线 | 国产日韩精品一区二区在线观看播放 | www国产亚洲精品久久网站 | 久久亚洲视频 | 91网在线观看 | 狠狠88综合久久久久综合网 | 亚洲日本va在线观看 | 亚洲一级黄色大片 | 一区在线播放 | 欧美乱淫视频 | 九九精品视频在线 | 久久香蕉国产 | 欧美一级裸体视频 | 亚洲污视频 | 在线播放亚洲激情 | 国产白浆在线观看 | 东方av免费在线观看 | 狠狠色噜噜狠狠狠合久 | 在线观看国产麻豆 | 精品国产1区二区 | 午夜电影av | 四虎影视www| 国产精品久久电影网 | 久久久久久网站 | 国产一级a毛片视频爆浆 | 亚洲成a人片在线观看中文 中文字幕在线视频第一页 狠狠色丁香婷婷综合 | 欧美黄色特级片 | 激情视频免费在线 | 国产在线91精品 | 久久久香蕉视频 | 国产手机视频在线 | 免费视频xnxx com | 久久久久免费精品视频 | 日韩毛片在线一区二区毛片 | 日本色小说视频 | 免费一级特黄录像 | 九九久久久久久久久激情 | 欧美日韩高清一区二区 | 91精品国产福利 | 四虎国产精 | 中文在线a在线 | 91av99| 日韩在线第一 | 天堂久久电影网 | 91视频在线观看下载 | 欧美精品久久久久 | 狠狠的操狠狠的干 | 麻豆影视在线播放 | 日韩免费视频 | 99r国产精品 | 国产精品网红直播 | 午夜精品一区二区三区在线视频 | 久久精品综合视频 | 中文字幕91视频 | 精品亚洲成人 | 视频二区| 国产精品久久伊人 | 亚洲国产精品小视频 | 香蕉视频在线视频 | 久久精品人人做人人综合老师 | 免费大片av | 精品一二三四视频 | 99久久久国产精品免费观看 | 黄色av大片 | 日韩在线高清视频 | 中文字幕日韩在线播放 | 国产亚洲精品久久久久动 | 91精品高清 | 亚洲天堂毛片 | 干狠狠| 成年性视频 | 国产97视频在线 | 日日夜夜中文字幕 | 日韩免| 日韩一级理论片 | 成人av免费网站 | 日韩视频www | 超碰免费av| 中文字幕在线观看一区二区 | 久久99国产综合精品免费 | 波多野结依在线观看 | 欧美最爽乱淫视频播放 | 丁香免费视频 | 欧美一级黄色视屏 | 日本公乱妇视频 | 国产精品自产拍在线观看桃花 | 日本久久成人中文字幕电影 | 激情视频一区二区三区 | 欧美日韩免费一区二区 | 久久在线视频精品 | 国产成人免费在线 |