日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

自然语言处理综述_自然语言处理

發(fā)布時間:2023/12/15 编程问答 44 豆豆
生活随笔 收集整理的這篇文章主要介紹了 自然语言处理综述_自然语言处理 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

自然語言處理綜述

Aren't we all initially got surprised when smart devices understood what we were telling them? And in fact, it answered in the most friendly manner too, isn't it? Like Apple’s Siri and Amazon’s Alexa comprehend when we ask the weather, for directions, or to play a certain genre of music. Ever since then I was wondering how do these computers get our language. This long due curiosity rekindled me and I thought to write a blog as a newbie on this.

當(dāng)智能設(shè)備理解了我們告訴他們的內(nèi)容后,我們所有人最初并不感到驚訝嗎? 實(shí)際上,它也以最友好的方式回答,不是嗎? 就像蘋果公司的Siri和亞馬遜公司的Alexa一樣,當(dāng)我們詢問天氣,方向或播放某種音樂時,他們就會明白。 從那時起,我一直在想這些計算機(jī)如何獲得我們的語言。 這種長期的好奇心使我重新燃起了生命,我想以此為博客寫一個新手。

In this article, I will be using a popular NLP library called NLTK. Natural Language Toolkit or NLTK is one of the most powerful and probably the most popular natural language processing libraries. Not only does it have the most comprehensive library for python-based programming, but it also supports the most number of different human languages.

在本文中,我將使用一個流行的名為NLTK的NLP庫 。 自然語言工具包或NLTK是功能最強(qiáng)大且可能是最受歡迎的自然語言處理庫之一。 它不僅具有用于基于python的編程的最全面的庫,而且還支持大多數(shù)不同的人類語言。

What is Natural Language Processing?

什么是自然語言處理?

Natural language processing (NLP) is a subfield of linguistics, computer science, information engineering, and artificial intelligence concerned with the interactions between computers and human languages, in particular how to train computers to process and analyze large amounts of natural language data.

自然語言處理(NLP)是語言學(xué),計算機(jī)科學(xué),信息工程和人工智能的一個子領(lǐng)域,與計算機(jī)和人類語言之間的相互作用有關(guān),尤其是如何訓(xùn)練計算機(jī)以處理和分析大量自然語言數(shù)據(jù)。

Why sorting of Unstructured Datatype is so important?

為什么對非結(jié)構(gòu)化數(shù)據(jù)類型進(jìn)行排序如此重要?

For every tick of the clock, the world generates the overwhelming amount of data!!, yeah, this is mind-boggling!! and the majority of the data falls under unstructured datatype. The data formats such as text, audio, video, image are classic examples of unstructured data. The Unstructured Datatype will not be having fixed dimensions and structures like traditional row and column structure of relational databases. Therefore it’s more difficult to analyze and not easily searchable. Having said that, it is also important for business organizations to find ways of addressing challenges and embracing opportunities to derive insights and prosper in highly competitive environments to be successful. However, with the help of natural language processing and machine learning, this is changing fast.

每一刻時鐘,世界都會產(chǎn)生大量數(shù)據(jù)!是的,這真是令人難以置信! 并且大多數(shù)數(shù)據(jù)屬于非結(jié)構(gòu)化數(shù)據(jù)類型。 文本,音頻,視頻,圖像等數(shù)據(jù)格式是非結(jié)構(gòu)化數(shù)據(jù)的經(jīng)典示例。 非結(jié)構(gòu)化數(shù)據(jù)類型將沒有固定的維度和結(jié)構(gòu),如關(guān)系數(shù)據(jù)庫的傳統(tǒng)行和列結(jié)構(gòu)。 因此,它更難以分析且不易搜索。 話雖如此,對于企業(yè)組織來說,找到應(yīng)對挑戰(zhàn)和把握機(jī)遇的方法也很重要,以便在高競爭環(huán)境中獲得見識并取得成功。 但是,借助自然語言處理和機(jī)器學(xué)習(xí),這種情況正在Swift改變。

Are Computers confused with our Natural Language?

計算機(jī)與我們的自然語言混淆了嗎?

Human language is one of the powerful tools of communication. The words, the tone, the sentences, the gestures which we use draw information. There are countless different ways of assembling words in a phrase. Words can also have many shades of meaning and, to comprehend human language with the intended meaning is a challenge. A linguistic paradox is a phrase or sentence that contradicts itself, for example, “oh, this is my open secret”, “can you please act naturally”, though it sounds pointedly foolish, we humans can understand and use in everyday speech but for machines, natural language’s ambiguity and inaccurate characteristics are the hurdles to sail-off.

語言是交流的強(qiáng)大工具之一。 我們使用的單詞,語氣,句子,手勢會吸引信息。 在短語中組合單詞的方式有無數(shù)種。 單詞也可以具有多種含義,要使人類語言具有預(yù)期的含義是一個挑戰(zhàn)。 語言悖論是與自己矛盾的短語或句子,例如,“哦,這是我的公開秘密”,“您能自然地行動嗎”,雖然聽起來很愚蠢,但我們?nèi)祟惪梢栽谌粘UZ音中理解和使用,但對于機(jī)器,自然語言的歧義和不正確的特征是航行的障礙。

Most used NLP Libraries

最常用的NLP庫

In the past, only pioneers could be part of NLP projects those who would have superior knowledge in mathematics, computer learning, and linguistics in natural language processing. Now developers can use ready-made libraries to simplify pre-processing of texts so that they can concentrate on creating machine learning models. These libraries have enabled text comprehension, interpretation, sentiment analysis through only a few lines of code. Most popular NLP libraries are:

過去,只有先驅(qū)者才能成為NLP項目的一部分,他們將對數(shù)學(xué),計算機(jī)學(xué)習(xí)和自然語言處理方面的語言有豐富的知識。 現(xiàn)在,開發(fā)人員可以使用現(xiàn)成的庫來簡化文本的預(yù)處理,以便他們可以專注于創(chuàng)建機(jī)器學(xué)習(xí)模型。 這些庫僅通過幾行代碼就可以進(jìn)行文本理解,解釋和情感分析。 最受歡迎的NLP庫是:

Spark NLP, NLTK, PyTorch-Transformers, TextBlob, Spacy, Stanford CoreNLP, Apache OpenNLP, Allen NLP, GenSim, NLP Architecture, sci-kit learn.

Spark NLP,NLTK,PyTorch-Transformers,TextBlob,Spacy,Stanford CoreNLP,Apache OpenNLP,Allen NLP,GenSim,NLP Architecture,Sci-kit學(xué)習(xí)。

The question is from where should we start and how?

問題是我們應(yīng)該從哪里開始,如何開始?

Have you ever observed how kids start to understand and learn a language? yeah, by picking each word and then sentence formations, right! Making computers understand our language is more or less similar to it.

您是否曾經(jīng)觀察過孩子如何開始理解和學(xué)習(xí)語言? 是的,先選擇每個單詞,然后再選擇句子形式,對! 使計算機(jī)理解我們的語言或多或少類似于它。

Pre-processing Steps :

預(yù)處理步驟:

  • Sentence Tokenization

    句子標(biāo)記化
  • Word Tokenization

    詞標(biāo)記化
  • Text Lemmatization and Stemming

    文本縮編和詞干
  • Stop Words

    停用詞
  • POS Tagging

    POS標(biāo)簽
  • Chunking

    塊狀
  • Wordnet

    詞網(wǎng)
  • Bag-of-Words

    言語袋
  • TF-IDF

    特遣部隊
  • Sentence Tokenization(Sentence Segmentation)To make computers understand the natural language, the first step is to break the paragraphs into the sentences. Punctuation marks are such an easy way out for splitting the sentences apart.

    句子標(biāo)記化(Sentence Segmentation)為了使計算機(jī)理解自然語言,第一步是將段落分成句子。 標(biāo)點(diǎn)符號是將句子分開的簡便方法。

  • import nltk
    nltk.download('punkt')text = "Home Farm is one of the biggest junior football clubs in Ireland and their senior team, from 1970 up to the late 1990s, played in the League of Ireland. However, the link between Home Farm and the senior team was severed in the late 1990s. The senior side was briefly known as Home Farm Fingal in an effort to identify it with the north Dublin area."sentences = nltk.sent_tokenize(text)
    print("The number of sentences in the paragrah:",len(sentences))for sentence in sentences:
    print(sentence)OUTPUT:The number of sentences in the paragraph: 3 Home Farm is one of the biggest junior football clubs in Ireland and their senior team, from 1970 up to the late 1990s, played in the League of Ireland. However, the link between Home Farm and the senior team was severed in the late 1990s. The senior side was briefly known as Home Farm Fingal in an effort to identify it with the north Dublin area.

    2. Word Tokenization(Word Segmentation)By now we have separated sentences with us and the next step is to break the sentences into words which are often called Tokens.

    2.單詞標(biāo)記化(單詞分割)到目前為止,我們已經(jīng)將句子分隔開了,下一步是將這些句子分解為通常稱為標(biāo)記的單詞。

    The way of creating a space in one’s own life helps for good, similarly, Space between the words helps in breaking the words apart in a phrase. We can consider punctuation marks as separate tokens as well, as punctuation has a purpose too.

    在自己的生活中創(chuàng)造空間的方式有益于美好,同樣,單詞之間的空間有助于將單詞在短語中分開。 我們也可以將標(biāo)點(diǎn)符號也視為單獨(dú)的標(biāo)記,因為標(biāo)點(diǎn)符號也是有目的的。

    for sentence in sentences:
    words = nltk.word_tokenize(sentence)
    print("The number of words in a sentence:", len(words))
    print(words)OUTPUT:The number of words in a sentence: 32
    ['Home', 'Farm', 'is', 'one', 'of', 'the', 'biggest', 'junior', 'football', 'clubs', 'in', 'Ireland', 'and', 'their', 'senior', 'team', ',', 'from', '1970', 'up', 'to', 'the', 'late', '1990s', ',', 'played', 'in', 'the', 'League', 'of', 'Ireland', '.'] The number of words in a sentence: 18
    ['However', ',', 'the', 'link', 'between', 'Home', 'Farm', 'and', 'the', 'senior', 'team', 'was', 'severed', 'in', 'the', 'late', '1990s', '.'] The number of words in a sentence: 22
    ['The', 'senior', 'side', 'was', 'briefly', 'known', 'as', 'Home', 'Farm', 'Fingal', 'in', 'an', 'effort', 'to', 'identify', 'it', 'with', 'the', 'north', 'Dublin', 'area', '.']

    The prerequisite to use word_tokenize() or sent_tokenize() functions in the program, we should have punkt package downloaded.

    在程序中使用word_tokenize()或sent_tokenize()函數(shù)的前提條件是,我們應(yīng)該已下載punkt軟件包。

    3. Stemming and Text Lemmatization

    3.詞干和詞法化

    In every text document, we usually come across different forms of words like write, writes, writing with an alike meaning, and the same base word. But how to make a computer to analyze such words?That’s when Text Lemmatization and Stemming comes in the picture.

    在每個文本文檔中,我們通常會遇到不同形式的單詞,例如寫,寫,具有相似含義的寫詞和相同的基本單詞。 但是如何使計算機(jī)分析此類單詞呢? 那就是圖片的詞法化和詞法提取的時候。

    Stemming and Text Lemmatization are the normalization techniques that offer the same idea of chopping the ends of a word to the core word. While both of them want to solve the same problem, but they are going about it in entirely different ways. Stemming is often a crude heuristic process whereas Lemmatization is a vocabulary -based morphological base word. Let’s just take a closer look!

    詞干和文本詞法歸類化是歸一化技術(shù),它們提供將單詞的結(jié)尾切成核心單詞的相同思想。 雖然他們兩個都想解決相同的問題,但是他們以完全不同的方式來解決這個問題。 詞干提取通常是一個粗略的啟發(fā)式過程,而詞干提取則是基于詞匯的詞法基礎(chǔ)詞。 讓我們仔細(xì)看看!

    Stemming- Words are reduced to their stem word. A word stem need not be the same root as a dictionary-based morphological(smallest unit) root, it just is an equal to or smaller form of the word.

    詞干 -單詞被簡化為詞干。 詞干不必與基于字典的詞法(最小單位)詞根相同,而可以等于或小于該詞的形式。

    from nltk.stem import PorterStemmer#create an object of class PorterStemmer
    porter = PorterStemmer()#A list of words to be stemmed
    word_list = ['running', ',', 'driving', 'sung', 'between', 'lasted', 'was', 'paticipated', 'before', 'severed', '1990s', '.']print("{0:20}{1:20}".format("Word","Porter Stemmer"))for word in word_list:
    print("{0:20}{1:20}".format(word,porter.stem(word)))OUTPUT:
    Word Porter Stemmer
    running run
    , ,
    driving drive
    sung sung
    between between
    lasted last
    was wa
    paticipated paticip
    before befor
    severed sever
    1990s 1990
    . .

    Stemming is not as easy as it looks :(we might get into two issues such as under-stemming and over-stemming of a word.

    詞干看起來并不容易:(我們可能會遇到兩個問題,例如單詞的詞干 不足和詞干 過度

    Lemmatization-When we think that stemming is the best estimate method to snip a word based on how it appears and meanwhile, on the other hand, lemmatization is a method that seems to be even more planned way of pruning the word. Their dictionary process includes resolving words. Indeed a word’s lemma is its dictionary or canonical form.

    詞法化 -當(dāng)我們認(rèn)為詞干是根據(jù)單詞出現(xiàn)的方式來截斷單詞的最佳估計方法時,另一方面,詞法化似乎是一種修剪單詞的更有計劃的方法。 他們的詞典處理過程包括解析單詞。 確實(shí),單詞的引理是其字典或規(guī)范形式。

    nltk.download('wordnet')
    from nltk.stem import WordNetLemmatizer
    wordnet_lemmatizer = WordNetLemmatizer()#A list of words to lemmatizeword_list = ['running', ',', 'drives', 'sung', 'between', 'lasted', 'was', 'paticipated', 'before', 'severed', '1990s', '.']print("{0:20}{1:20}".format("Word","Lemma"))for word in word_list:
    print ("{0:20}{1:20}".format(word,wordnet_lemmatizer.lemmatize(word)))OUTPUT:Word Lemma
    running running
    , ,
    drives drive
    sung sung
    between between
    lasted lasted
    was wa
    paticipated paticipated
    before before
    severed severed
    1990s 1990s
    . .

    If speed is needed, then resorting to stemming is better. But it’s better to use lemmatization when accuracy is needed.

    如果需要速度,則最好采用阻止。 但是,當(dāng)需要準(zhǔn)確性時,最好使用定理。

    4. Stop Words‘in’, ‘a(chǎn)t’, ‘on’, ‘so’.. etc are considered as stop words. Stop words don't play an important role in NLP, but the removal of stop words necessarily plays an important role during sentiment analysis.

    4.“在”,“在”,“在”,“如此”等上的停用詞被視為停用詞。 停用詞在NLP中并不重要,但是在情感分析過程中停用詞的去除必定起著重要作用。

    NLTK comes with the stopwords for 16 different languages that contain stop word lists.

    NLTK隨附了包含停用詞列表的16種不同語言的停用詞。

    from nltk.corpus import stopwords
    from nltk.tokenize import word_tokenize
    stop_words = set(stopwords.words('english'))print("The stop words in NLTK lib are:", stop_words)para="""Home Farm is one of the biggest junior football clubs in Ireland and their senior team, from 1970 up to the late 1990s, played in the League of Ireland. However, the link between Home Farm and the senior team was severed in the late 1990s. The senior side was briefly known as Home Farm Fingal in an effort to identify it with the north Dublin area."""tokenized_para=word_tokenize(para)
    modified_token_list=[word for word in tokenized_para if not word in stop_words]
    print("After removing the stop words in the sentence:")
    print(modified_token_list)OUTPUT:The stop words in NLTK lib are: {'about', 'ma', "shouldn't", 's', 'does', 't', 'our', 'mightn', 'doing', 'while', 'ourselves', 'themselves', 'will', 'some', 'you', "aren't", 'by', "needn't", 'in', 'can', 'he', 'into', 'as', 'being', 'between', 'very', 'after', 'couldn', 'himself', 'herself', 'had', 'its', 've', 'him', 'll', "isn't", 'through', 'should', 'was', 'now', 'them', "you'll", 'again', 'who', 'don', 'been', 'they', 'weren', "you're", 'both', 'd', 'me', 'didn', "won't", "you'd", 'only', 'itself', 'hadn', "should've", 'than', 'how', 'few', 're', 'down', 'these', 'y', "haven't", "mightn't", 'won', "hadn't", 'other', 'above', 'all', "doesn't", 'isn', "that'll", 'not', 'yourselves', 'at', 'mustn', "it's", 'on', 'the', 'for', "didn't", 'what', "mustn't", 'his', 'haven', 'doesn', "you've", 'are', 'out', 'hers', 'with', 'has', 'she', 'most', 'ain', 'those', 'when', 'myself', 'before', 'their', 'during', 'there', 'or', 'until', 'that', 'more', "hasn't", 'o', 'we', 'and', "shan't", 'which', 'because', "don't", 'why', 'shan', 'an', 'my', 'if', 'did', 'having', "couldn't", 'your', 'theirs', 'aren', 'just', 'further', 'here', 'of', "wouldn't", 'be', 'too', 'her', 'no', 'same', 'it', 'is', 'were', 'yourself', 'have', 'off', 'this', 'needn', 'once', "wasn't", 'against', 'wouldn', 'up', 'a', 'i', 'below', "weren't", 'over', 'own', 'then', 'so', 'do', 'from', 'shouldn', 'am', 'under', 'any', 'yours', 'ours', 'hasn', 'such', 'nor', 'wasn', 'to', 'where', 'm', "she's", 'each', 'whom', 'but'} After removing the stopwords in the sentence:
    ['Home', 'Farm', 'one', 'biggest', 'junior', 'football', 'clubs', 'Ireland', 'senior', 'team', ',', '1970', 'late', '1990s', ',', 'played', 'League', 'Ireland', '.', 'However', ',', 'link', 'Home', 'Farm', 'senior', 'team', 'severed', 'late', '1990s', '.', 'The', 'senior', 'side', 'briefly', 'known', 'Home', 'Farm', 'Fingal', 'effort', 'identify', 'north', 'Dublin', 'area', '.']

    5. POS TaggingDown the memories lane of our early English grammar classes, can we all remember how our teachers used to give relevant instructions around basic parts of speech to have effective communication? Yeah, good old days!!Let's teach parts of speech to our computers too. :)

    5. POS標(biāo)記我們早期英語語法課的記憶里,我們都還記得我們的老師曾經(jīng)如何圍繞基本的言語給予相關(guān)指導(dǎo)以進(jìn)行有效的交流嗎? 是的,過去美好!讓我們也將詞性教學(xué)到我們的計算機(jī)上。 :)

    The eight parts of speech are nouns, verbs, pronouns, adjectives, adverbs, prepositions, conjunctions, and interjections.

    語音的八個部分是名詞,動詞,代詞,形容詞,副詞,介詞,連詞和感嘆詞。

    POS Tagging is an ability to identify and assign parts of speech to the words in a sentence. There are different methods to tag, but we will be using the universal style of tagging.

    POS標(biāo)記是一種識別語音部分并將其分配給句子中單詞的功能。 標(biāo)記的方法不同,但是我們將使用通用的標(biāo)記樣式。

    nltk.download('averaged_perceptron_tagger')
    nltk.download('universal_tagset')
    pos_tag= [nltk.pos_tag(i,tagset="universal") for i in words]
    print(pos_tag)[[('Home', 'NOUN'), ('Farm', 'NOUN'), ('is', 'VERB'), ('one', 'NUM'), ('of', 'ADP'), ('the', 'DET'), ('biggest', 'ADJ'), ('junior', 'NOUN'), ('football', 'NOUN'), ('clubs', 'NOUN'), ('in', 'ADP'), ('Ireland', 'NOUN'), ('and', 'CONJ'), ('their', 'PRON'), ('senior', 'ADJ'), ('team', 'NOUN'), (',', '.'), ('from', 'ADP'), ('1970', 'NUM'), ('up', 'ADP'), ('to', 'PRT'), ('the', 'DET'), ('late', 'ADJ'), ('1990s', 'NUM'), (',', '.'), ('played', 'VERB'), ('in', 'ADP'), ('the', 'DET'), ('League', 'NOUN'), ('of', 'ADP'), ('Ireland', 'NOUN'), ('.', '.')]

    One of the applications of POS tagging to analyze the qualities of a product in feedback, by sorting the adjectives in the customers’ review we can evaluate the sentiment of the feedback. Say example, how was your shopping with us?

    POS標(biāo)記用于分析產(chǎn)品在反饋中的質(zhì)量的一種應(yīng)用,通過對客戶評論中的形容詞進(jìn)行分類,我們可以評估反饋的情緒。 舉例來說, 您如何與我們一起購物?

    6. ChunkingChunking is used to add more structure to the sentence by tagging the following parts of speech (POS). Also named as shallow parsing. The resulting word group is named “chunks.” There are no such predefined rules to perform chunking.

    6.分塊用于通過標(biāo)記以下詞性(POS)為句子添加更多結(jié)構(gòu)。 也稱為淺層解析。 所得的單詞組稱為“塊”。 沒有此類預(yù)定義規(guī)則可以執(zhí)行分塊。

    Phrase structure conventions:

    短語結(jié)構(gòu)約定:

    • S(Sentence) → NP VP.

      S(句子)→NP VP。
    • NP → {Determiner, Noun, Pronoun, Proper name}.

      NP→{確定詞,名詞,代詞,專有名稱}。
    • VP → V (NP)(PP)(Adverb).

      VP→V(NP)(PP)(副詞)。
    • PP → Pronoun (NP).

      PP→代詞(NP)。
    • AP → Adjective (PP).

      AP→形容詞(PP)。

    I never had a good time with complex regular expressions, I used to remain as far as I could but off late realized, how important it is to have a grip on regular expressions in data science. Let’s start by understanding the simple instance.

    我從來沒有過過使用復(fù)雜的正則表達(dá)式的美好時光,我曾經(jīng)盡我所能,但后來才意識到,掌握數(shù)據(jù)科學(xué)中的正則表達(dá)式是多么重要。 讓我們從了解簡單實(shí)例開始。

    If we need to tag Noun, verb (past tense), adjective, and coordinating junction from the sentence. You can use the rule as below

    如果我們需要標(biāo)記句子中的名詞,動詞(過去式),形容詞和協(xié)調(diào)連接。 您可以使用以下規(guī)則

    chunk:{<NN.?>*<VBD.?>*<JJ.?>*<CC>?}

    塊:{<NN。?> * <VBD。?> * <JJ。?> * <CC>?}

    import nltk
    from nltk.tokenize import word_tokenizecontent = "Home Farm is one of the biggest junior football clubs in Ireland and their senior team, from 1970 up to the late 1990s, played in the League of Ireland. However, the link between Home Farm and the senior team was severed in the late 1990s. The senior side was briefly known as Home Farm Fingal in an effort to identify it with the north Dublin area."tokenized_text = nltk.word_tokenize(content)
    print("After Split:",tokenized_text)
    tokens_tag = pos_tag(tokenized_text)
    print("After Token:",tokens_tag)patterns= """mychunk:{<NN.?>*<VBD.?>*<JJ.?>*<CC>?}"""chunker = RegexpParser(patterns)
    print("After Regex:",chunker)
    output = chunker.parse(tokens_tag)
    print("After Chunking",output)OUTPUT:After Regex: chunk.RegexpParser with 1 stages: RegexpChunkParser with 1 rules: <ChunkRule: '<NN.?>*<VBD.?>*<JJ.?>*<CC>?'> After Chunking
    (S (mychunk Home/NN Farm/NN) is/VBZ one/CD of/IN the/DT
    (mychunk biggest/JJS)
    (mychunk junior/NN football/NN clubs/NNS) in/IN
    (mychunk Ireland/NNP and/CC) their/PRP$
    (mychunk senior/JJ)
    (mychunk team/NN) ,/, from/IN 1970/CD up/IN to/TO the/DT (mychunk late/JJ) 1990s/CD ,/, played/VBN in/IN the/DT (mychunk League/NNP) of/IN (mychunk Ireland/NNP) ./.)

    7. Wordnet

    7.詞網(wǎng)

    Wordnet is an NLTK corpus reader, a lexical database for English. It can be used to generate a synonym or antonym.

    Wordnet是NLTK語料庫閱讀器,英語的詞匯數(shù)據(jù)庫。 它可用于生成同義詞或反義詞。

    from nltk.corpus import wordnetsynonyms = []
    antonyms = []for syn in wordnet.synsets("active"):
    for lemmas in syn.lemmas():
    synonyms.append(lemmas.name())for syn in wordnet.synsets("active"):
    for lemmas in syn.lemmas():
    if lemmas.antonyms():
    antonyms.append(lemmas.antonyms()[0].name())print("Synonyms are:",synonyms)
    print("Antonyms are:",antonyms)OUTPUT:Synonyms are: ['active_agent', 'active', 'active_voice', 'active', 'active', 'active', 'active', 'combat-ready', 'fighting', 'active', 'active', 'participating', 'active', 'active', 'active', 'active', 'alive', 'active', 'active', 'active', 'dynamic', 'active', 'active', 'active'] Antonyms are: ['passive_voice', 'inactive', 'passive', 'inactive', 'inactive', 'inactive', 'quiet', 'passive', 'stative', 'extinct', 'dormant', 'inactive']

    8. Bag of WordsA bag of words model turns the raw text into words, and the frequency for the words in the text is also counted.

    8.單詞單詞袋模型將原始文本轉(zhuǎn)換為單詞,并計算單詞在單詞中的出現(xiàn)頻率。

    import nltk
    import re # to match regular expressions
    import numpy as nptext="Home Farm is one of the biggest junior football clubs in Ireland and their senior team, from 1970 up to the late 1990s, played in the League of Ireland. However, the link between Home Farm and the senior team was severed in the late 1990s. The senior side was briefly known as Home Farm Fingal in an effort to identify it with the north Dublin area."sentences = nltk.sent_tokenize(text)
    for i in range(len(sentences)):
    sentences[i] = sentences[i].lower()
    sentences[i] = re.sub(r'\W', ' ', sentences[i])
    sentences[i] = re.sub(r'\s+', ' ', sentences[i])bag_of_words = {}
    for sentence in sentences:
    words = nltk.word_tokenize(sentence)
    for word in words:
    if word not in bag_of_words.keys():
    bag_of_words[word] = 1
    else:
    bag_of_words[word] += 1
    print(bag_of_words)OUTPUT:{'home': 3, 'farm': 3, 'is': 1, 'one': 1, 'of': 2, 'the': 8, 'biggest': 1, 'junior': 1, 'football': 1, 'clubs': 1, 'in': 4, 'ireland': 2, 'and': 2, 'their': 1, 'senior': 3, 'team': 2, 'from': 1, '1970': 1, 'up': 1, 'to': 2, 'late': 2, '1990s': 2, 'played': 1, 'league': 1, 'however': 1, 'link': 1, 'between': 1, 'was': 2, 'severed': 1, 'side': 1, 'briefly': 1, 'known': 1, 'as': 1, 'fingal': 1, 'an': 1, 'effort': 1, 'identify': 1, 'it': 1, 'with': 1, 'north': 1, 'dublin': 1, 'area': 1}

    9. TF-IDF

    9.特遣部隊

    TF-IDF stands for Term Frequency — Inverse document frequency.

    TF-IDF代表術(shù)語頻率-反向文檔頻率

    Text data needs to be converted to the numerical format where each word is represented in the matrix form. The encoding of a given word is the vector in which the corresponding element is set to one, and all other elements are zero. Thus TF-IDF technique is also referred to as Word Embedding.

    文本數(shù)據(jù)需要轉(zhuǎn)換為數(shù)字格式,其中每個單詞都以矩陣形式表示。 給定單詞的編碼是將相應(yīng)元素設(shè)置為1并將所有其他元素設(shè)置為零的向量。 因此,TF-IDF技術(shù)也稱為詞嵌入

    TF-IDF works on two concepts:

    TF-IDF處理兩個概念:

    TF(t) = (Number of times term t appears in a document) / (Total number of terms in the document)

    TF(t)=(術(shù)語t在文檔中出現(xiàn)的次數(shù))/(文檔中術(shù)語的總數(shù))

    IDF(t) = log_e(Total number of documents / Number of documents with term t in it)

    IDF(t)= log_e(文件總數(shù)/其中帶有術(shù)語t的文件數(shù))

    from sklearn.feature_extraction.text import TfidfTransformer
    from sklearn.feature_extraction.text import CountVectorizer
    import pandas as pddocs=["Home Farm is one of the biggest junior football clubs in Ireland and their senior team, from 1970 up to the late 1990s, played in the League of Ireland",
    "However, the link between Home Farm and the senior team was severed in the late 1990s",
    " The senior side was briefly known as Home Farm Fingal in an effort to identify it with the north Dublin area"]#instantiate CountVectorizer()
    cv=CountVectorizer()# this steps generates word counts for the words in your docs
    word_count_vector=cv.fit_transform(docs)tfidf_transformer=TfidfTransformer(smooth_idf=True,use_idf=True)
    tfidf_transformer.fit(word_count_vector)# print idf values
    df_idf = pd.DataFrame(tfidf_transformer.idf_, index=cv.get_feature_names(),columns=["idf_weights"])# sort ascending
    df_idf.sort_values(by=['idf_weights'])# count matrix
    count_vector=cv.transform(docs)# tf-idf scores
    tf_idf_vector=tfidf_transformer.transform(count_vector)feature_names = cv.get_feature_names()#get tfidf vector for the document
    first_document_vector=tf_idf_vector[0]#print the scores
    df = pd.DataFrame(first_document_vector.T.todense(), index=feature_names, columns=["tfidf"])
    df.sort_values(by=["tfidf"],ascending=False)tfidf
    of 0.374810
    ireland 0.374810
    the 0.332054
    in 0.221369
    1970 0.187405
    football 0.187405
    up 0.187405
    as 0.000000
    an 0.000000and so on..

    What are these scores telling us? The more common the word across documents, the lower its score, and the more unique a word the higher the score will be.

    這些分?jǐn)?shù)告訴我們什么? 文檔中的單詞越常見,其得分就越低,單詞越獨(dú)特,得分就會越高。

    So far, we learned the steps of cleaning and preprocessing the text. What can we do with the sorted data after all this? We could use this data for sentiment analysis, chatbot, market intelligence. Maybe build a recommender system based on user purchases or item reviews or customer segmentation with clustering.

    到目前為止,我們學(xué)習(xí)了清理和預(yù)處理文本的步驟。 所有這些之后,我們該如何處理排序后的數(shù)據(jù)? 我們可以使用這些數(shù)據(jù)進(jìn)行情感分析,聊天機(jī)器人,市場情報。 也許可以基于用戶購買或商品評論或具有集群的客戶細(xì)分來構(gòu)建推薦系統(tǒng)。

    Computers are still not accurate with human language as much as they are with numbers. With the massive proportion of text data generated every day, NLP is indeed becoming ever more significant to make sense of the data and is being used in many other applications. Hence there are endless ways to explore NLP.

    計算機(jī)對人類語言的準(zhǔn)確性仍然不如數(shù)字。 隨著每天生成大量文本數(shù)據(jù),NLP確實(shí)變得越來越重要以理清數(shù)據(jù),并在許多其他應(yīng)用程序中得到使用。 因此,有無數(shù)種探索NLP的方法。

    翻譯自: https://medium.com/analytics-vidhya/natural-language-processing-bedb2e1c8ceb

    自然語言處理綜述

    總結(jié)

    以上是生活随笔為你收集整理的自然语言处理综述_自然语言处理的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

    91九色视频在线 | 国产精品麻 | 少妇搡bbbb搡bbb搡aa | 久久久久久免费毛片精品 | 四虎欧美 | 美女久久网站 | 91精品一区在线观看 | 不卡中文字幕在线 | 免费观看一级特黄欧美大片 | 91自拍视频在线 | 18+视频网站链接 | 一区二区不卡视频在线观看 | 欧美视频不卡 | 亚洲国产最新 | 亚洲国产免费看 | 日韩欧美在线综合网 | 手机在线观看国产精品 | 久久国产精品色婷婷 | 超碰人人国产 | 精品国产一区二区三区不卡 | 久久私人影院 | 在线免费av播放 | 日韩成人高清在线 | 91香蕉久久 | 中文字幕免费中文 | 久久视频这里只有精品 | 亚洲影视资源 | 日韩视频免费观看高清 | 日本黄色a级大片 | 天天干天天碰 | 在线观看黄色的网站 | 欧美日比视频 | 久久免费毛片视频 | 狠狠地操 | 亚洲精品免费视频 | 一区二区三区在线观看免费视频 | 夜添久久精品亚洲国产精品 | 国产一区二区影院 | 中日韩免费视频 | 亚洲精品国产成人 | 在线观看免费一区 | av综合网址| 国产成人777777 | 婷婷久久网 | 精品久久久999 | 一区二区三区韩国免费中文网站 | 日韩精品不卡在线观看 | 99re视频在线观看 | 亚洲在线网址 | 草在线| 91av原创 | 成人黄大片视频在线观看 | 日韩免费高清在线观看 | 久草精品视频在线看网站免费 | 插综合网 | 久久男人视频 | 麻豆播放| 国产免费中文字幕 | 国产一区二区三区黄 | 国产精品手机在线观看 | www.色五月| av在线免费网 | 久久夜靖品 | 网址你懂的在线观看 | 成人理论在线观看 | 亚洲欧洲在线视频 | 精品视频在线观看 | 日韩欧美黄色网址 | 香蕉久久久久 | 伊人婷婷激情 | 久久精品成人 | 天天操天天射天天爽 | 欧美精品久久久久久久久老牛影院 | 国内精品久久久久 | 久久成人精品电影 | 中文字幕高清视频 | 天天操天天摸天天干 | 国产精品免费观看视频 | 国产生活一级片 | 日韩 精品 一区 国产 麻豆 | 国产精品18久久久久久久 | 深爱激情开心 | 久久久精品网站 | 99久久夜色精品国产亚洲96 | 五月开心色 | 国产精品免费久久久久 | 激情欧美一区二区免费视频 | 97超碰人人在线 | 玖玖在线视频观看 | 久久99国产综合精品 | 欧美激情第十页 | 日韩xxxxxxxxx| 日韩综合一区二区 | av一区在线 | 欧美日韩高清一区二区三区 | 久久久九色精品国产一区二区三区 | 日韩欧美精品一区二区三区经典 | 日韩欧美在线高清 | 国产在线日韩 | 色网免费观看 | 国产中文字幕视频在线观看 | 久草视频看看 | 五月天伊人 | 日韩精品在线免费播放 | 久草精品视频在线看网站免费 | av中文字幕在线观看网站 | 日日摸日日碰 | av高清一区二区三区 | 亚洲资源在线观看 | 91久草视频 | 黄色在线观看www | 久久超碰99 | 亚洲一区二区三区毛片 | 中文字幕在线观看免费高清完整版 | 亚洲爱av| 国产女人免费看a级丨片 | 精品99视频 | 免费观看www视频 | 久久96| 精品国产一区二 | 四虎成人在线 | 欧美a级一区二区 | 久久99精品国产 | 久久精品视频网 | 国产黄a三级 | 亚洲精品色婷婷 | 色综合久久中文字幕综合网 | 手机在线看片日韩 | 外国av网 | 999久久久国产精品 高清av免费观看 | 欧美日韩在线播放 | 五月丁色 | 国产精品激情在线观看 | 在线日韩中文字幕 | 国产精品久久三 | 精品久操| 国产精品6 | 成人国产电影在线观看 | 看国产黄色大片 | 日韩黄色影院 | 亚洲日本精品 | 亚洲乱码国产乱码精品天美传媒 | 99草视频 | 欧美人人爱 | 欧美另类高清 | 国产欧美精品xxxx另类 | 免费久草视频 | 九九热免费精品视频 | 亚洲精品字幕在线观看 | 91亚洲精品国产 | 久久香蕉一区 | 亚洲成人在线免费 | 亚洲高清视频在线播放 | 三级动图 | 欧美日韩一区二区三区免费视频 | 欧日韩在线视频 | 亚洲网站在线看 | 超碰在线天天 | 日韩在线观看视频网站 | 久久综合九色综合97婷婷女人 | 久久99在线视频 | 美女网站黄免费 | 五月婷婷伊人网 | 国产日韩欧美视频 | 欧美久久久久 | 在线中文字幕视频 | 久久久久国产a免费观看rela | h视频在线看| 国内精品久久天天躁人人爽 | 免费观看一级一片 | 中文字幕不卡在线88 | 九九热视频在线播放 | 久久久精品网 | 奇米网网址 | 国产看片免费 | 精品久久久久久久久久久久 | 国产精品免费视频久久久 | 97精品国产97久久久久久 | 欧美另类视频 | 国产又粗又猛又色又黄视频 | 青青河边草免费视频 | 午夜在线免费观看视频 | 黄色av电影免费观看 | 亚洲一级二级 | 蜜臀久久99精品久久久酒店新书 | 欧美一级在线 | 免费久久99精品国产婷婷六月 | 激情导航 | 中文字幕免费一区二区 | 人人超碰免费 | 久久九九国产视频 | 久久久久久美女 | 日日日日日 | 久久免费视频在线观看 | 黄色成人av网址 | 成人国产精品入口 | 亚洲激情视频在线 | 丝袜制服天堂 | 69av视频在线观看 | 99在线免费观看 | 97国产视频 | 在线免费色视频 | 超碰在线99 | 亚洲aⅴ久久精品 | 亚洲春色综合另类校园电影 | 日韩色在线观看 | 日本三级吹潮在线 | 免费看片黄色 | 久久久污| 天天干人人干 | 96国产在线 | 九草在线视频 | 免费a级黄色毛片 | 日日操日日插 | 亚洲涩涩一区 | 国产亚洲精品成人av久久ww | 亚洲国产美女精品久久久久∴ | 久久这里 | 久久精品在线视频 | 午夜久久福利影院 | 日日夜夜草 | 婷婷久久一区二区三区 | www日韩在线观看 | 久久精品视频免费 | 亚洲一区 影院 | 日日干美女 | 日韩伦理一区二区三区av在线 | 99久久精品免费看国产麻豆 | 久久综合天天 | 99国产情侣在线播放 | 男女拍拍免费视频 | 亚洲成a人片在线观看中文 中文字幕在线视频第一页 狠狠色丁香婷婷综合 | 九色精品免费永久在线 | 欧美在线观看视频一区二区三区 | 女人高潮特级毛片 | 亚洲v欧美v国产v在线观看 | 欧美a级在线播放 | 中文字幕一区av | 精品国产伦一区二区三区观看方式 | 操操操干干干 | 亚洲精品免费看 | 在线观看视频 | 国产人免费人成免费视频 | 99精品视频在线免费观看 | 免费高清在线观看电视网站 | 人人插人人看 | 成年人看片网站 | 激情久久影院 | 91精品国产91p65 | 亚洲一区精品二人人爽久久 | 国产精品二区在线 | 久久免费观看视频 | 成人在线电影观看 | 99热 精品在线| 日韩高清一二区 | 免费在线播放视频 | 久久亚洲综合国产精品99麻豆的功能介绍 | 最近更新的中文字幕 | 天天爽夜夜爽人人爽曰av | 亚州中文av | 深夜免费小视频 | 99热这里有精品 | 日本不卡123| 天天干天天干 | 精品不卡av| 久久人人97超碰国产公开结果 | 黄色avwww| 国产精品成人久久久久 | 色综合久久久久久久久五月 | 国产人成看黄久久久久久久久 | 怡红院久久 | 精品久久久久久久久亚洲 | 干干干操操操 | 美女性爽视频国产免费app | 欧美成年网站 | 成人免费视频网站在线观看 | 香蕉视频91 | 天堂入口网站 | 在线 日韩 av | japanese黑人亚洲人4k | 日韩美女久久 | 天天要夜夜操 | 黄色软件在线观看视频 | 青青久视频 | 国产黄在线 | 亚洲精品天天 | 国产九九精品视频 | 久久在线视频在线 | 亚洲国产精品500在线观看 | 中文字幕在线观看一区二区三区 | 亚洲一区二区三区在线看 | 视频在线观看入口黄最新永久免费国产 | 亚洲成人免费在线观看 | 色婷婷综合久久久久 | 久久99久久精品国产 | 国产一区二区在线观看视频 | 色在线视频网 | 成年人视频在线免费观看 | 国产精品久久久av久久久 | 欧美午夜久久 | 国产小视频网站 | www四虎影院 | 国产精品日韩久久久久 | 色综合中文字幕 | 亚洲激情 | 91爱爱中文字幕 | 久操免费视频 | 欧美精品你懂的 | 中文字幕一区二 | 日韩欧美一区二区在线播放 | 草久热 | 少妇性bbb搡bbb爽爽爽欧美 | 精品久久久久久久久久久久 | 美国av大片 | 一区二区三区高清 | 干干操操| 麻豆你懂的 | 成人在线观看资源 | 天天操天天能 | 精品国模一区二区 | 麻豆一二 | 日韩精品一区电影 | 色综合婷婷久久 | 久久久999免费视频 日韩网站在线 | 国产啊v在线 | a√天堂中文在线 | 免费在线观看不卡av | 午夜视频不卡 | 五月激情在线 | 久久综合九色综合97_ 久久久 | 97色婷婷人人爽人人 | 成人av视屏| 亚洲国产成人久久 | 免费观看不卡av | 999视频精品 | 国产精品每日更新 | 伊人天天综合 | 人人爽人人看 | 婷婷香蕉 | 国产精品11 | 激情网色 | 91精品国产自产在线观看永久 | 国产免费人成xvideos视频 | 免费的国产精品 | 亚洲午夜精品久久久 | 国产精品原创 | 友田真希x88av | 九九热在线精品 | 欧美精品久久久久 | 香蕉久久国产 | 成人免费视频观看 | 91精品国产自产老师啪 | 日日夜色 | 中文字幕免费观看视频 | 亚洲国产午夜视频 | www免费在线观看 | 日日夜夜精品网站 | 国产免费嫩草影院 | 久 久久影院 | 超碰在线观看av.com | 91精品在线播放 | 亚洲精品自拍视频在线观看 | 国产精品乱码一区二区视频 | 91在线精品视频 | 日日干综合 | 国产精品淫片 | 欧美在线视频一区二区 | 操久久免费视频 | 在线不卡的av | 久热av| 欧美日韩一区二区在线观看 | 日韩黄色在线观看 | 亚洲乱码久久久 | www免费网站在线观看 | 在线不卡a | 欧美精品在线免费 | 国产一区在线免费观看 | 天天爽人人爽夜夜爽 | 国产视频一区在线 | 国产99精品 | 国语精品久久 | 国产情侣一区 | 四月婷婷在线观看 | 日日夜精品 | 天天插综合网 | 四虎最新域名 | 国产精品欧美久久久久无广告 | 国产精品久久嫩一区二区免费 | 久草在线视频首页 | 精品视频久久久 | 亚洲黄色免费在线看 | 毛片视频电影 | 免费电影一区二区三区 | 国产精品久久一区二区三区不卡 | 亚洲成人午夜在线 | 亚洲3级 | 天天射天天射天天 | 亚洲va欧美va人人爽春色影视 | 国产中文字幕在线视频 | 日韩三级在线 | 久久私人影院 | 三日本三级少妇三级99 | 精品黄色在线观看 | 999久久a精品合区久久久 | 久久久久久久久久伊人 | 人人澡人人爱 | 国产免费午夜 | 色偷偷97 | 美女又爽又黄 | 五月天激情综合 | 欧美日韩国产伦理 | 久久精品a | 97视频人人澡人人爽 | 中文字幕中文字幕中文字幕 | 亚洲综合在线一区二区三区 | 亚洲天堂香蕉 | 激情黄色一级片 | www.啪啪.com | 91少妇精拍在线播放 | 91精品啪在线观看国产线免费 | 久精品视频在线观看 | 日韩欧美69 | 欧美夫妻生活视频 | 成人性生交大片免费看中文网站 | 国产成人av综合色 | 欧美在线观看视频一区二区三区 | 免费高清在线观看电视网站 | 在线看v片| 97夜夜澡人人爽人人免费 | 欧美 激情在线 | 99免费在线 | 色综合小说 | 黄色亚洲片 | 婷婷在线网 | 久久国产精品成人免费浪潮 | 91在线精品播放 | 成人va在线观看 | 在线观看久 | 亚洲人成网站精品片在线观看 | 久久久久久久久久亚洲精品 | 操操日| 99久久精品国产系列 | 美女一级毛片视频 | 天天操天天爱天天干 | 欧美精品在线观看免费 | 在线免费av电影 | 国产91免费在线 | 久久免费电影网 | 久久久网站 | 天天天天天天干 | 日本xxxxav| 免费人成网 | 在线观看91精品视频 | 中文字幕av网站 | 久久久久久久精 | 欧美午夜久久久 | 久久黄视频 | 欧洲亚洲女同hd | 欧美在线视频精品 | 91高清免费 | 丁香婷婷综合五月 | 日日天天 | 午夜精品久久久久久久久久久久 | 日韩精品高清不卡 | .国产精品成人自产拍在线观看6 | av丝袜美腿 | 色www. | 美女视频黄频大全免费 | av在线播放国产 | 国产精品毛片久久久久久久久久99999999 | 日韩av电影一区 | 中文字幕国产精品 | 欧美日韩亚洲精品在线 | 日本高清免费中文字幕 | 日韩电影在线观看一区二区三区 | 久久精品麻豆 | 特级毛片爽www免费版 | 欧美成人黄色 | 免费观看性生活大片 | 久久精品国产一区二区电影 | 激情婷婷在线 | 天天插天天干天天操 | 国产精品中文字幕在线观看 | 国产成人精品av在线观 | 亚洲精品动漫在线 | 国产又粗又猛又黄又爽 | 人人爱天天操 | 国产无遮挡又黄又爽在线观看 | 干天天| 日日夜夜天天久久 | 日本精品视频一区 | 国产18精品乱码免费看 | 成人亚洲免费 | 国产精品久久99精品毛片三a | 成人动漫一区二区 | 欧美福利片在线观看 | www视频在线免费观看 | 天天操夜夜看 | 亚洲成人家庭影院 | 欧美日韩不卡一区二区三区 | 激情欧美丁香 | 欧美最爽乱淫视频播放 | 伊人久在线 | 欧美a级一区二区 | 粉嫩av一区二区三区四区在线观看 | 欧美一级视频免费 | 97超碰伊人 | 日韩色在线观看 | 国产91精品在线播放 | 9色在线视频 | 五月开心色 | 成片免费观看视频大全 | 日韩色一区二区三区 | 欧美二区在线播放 | 色香网| 五月在线视频 | 亚洲国产伊人 | 婷婷免费视频 | 久久午夜电影网 | 久久免费视频6 | 久久婷婷网| 国产色婷婷| 日日夜夜精品视频天天综合网 | 成人影视免费看 | 开心激情久久 | 2021av在线| 欧美日韩中文国产一区发布 | 国产黄色免费观看 | 国产免费视频在线 | 亚洲欧美偷拍另类 | 免费福利影院 | 国产91亚洲 | 国产做a爱一级久久 | 四虎国产免费 | 亚洲日日射 | 日韩黄色软件 | 中文字幕在线观看完整版电影 | 成年人视频免费在线播放 | 免费三级在线 | 国产中的精品av小宝探花 | 日韩精品中文字幕在线不卡尤物 | 天堂va在线高清一区 | 爱爱av在线 | 91久久久久久久一区二区 | 日批视频在线 | 国产无套视频 | 国产在线观看,日本 | www.天天色.com | 黄色成年片 | 91免费日韩| 日韩极品视频在线观看 | 色av色av色av | 久久久久一区二区三区四区 | 粉嫩aⅴ一区二区三区 | 亚洲国产日韩一区 | 在线观看免费日韩 | 久久免费电影网 | 日韩av影片在线观看 | 在线国产专区 | 人人澡人人草 | 亚洲精品国产综合久久 | 久久久久成人精品亚洲国产 | 91在线免费看片 | 亚洲欧美国产精品 | 91亚州| 蜜臀久久99精品久久久无需会员 | 在线免费色视频 | 亚洲激情视频在线 | av电影不卡在线 | 精品国产电影一区二区 | 激情电影影院 | 狠狠88综合久久久久综合网 | 国产一级片视频 | 国产黄色片网站 | 亚洲麻豆精品 | 国产精品不卡av | 久久中文视频 | 五月天婷亚洲天综合网精品偷 | 国产精品手机看片 | 亚洲国产精品免费 | 国内99视频 | 精品1区二区 | 成年人精品 | 99视频精品免费视频 | 香蕉视频最新网址 | 韩国av不卡| 日本精品二区 | 99精品免费久久久久久久久 | 亚洲精品在线观看不卡 | 在线日韩一区 | www激情网 | 欧美日韩一区二区视频在线观看 | 国内久久精品视频 | av电影中文 | 一区二区三区日韩精品 | 成年人在线观看免费视频 | 狠狠干 狠狠操 | 久久久黄视频 | 天天天综合 | www91在线观看 | 狠狠色丁香婷婷综合欧美 | 中文字幕亚洲在线观看 | 国产精品久久婷婷六月丁香 | 色成人亚洲 | 国产精品久久久久免费观看 | 久久理论视频 | jizz999| av中文在线影视 | 久久久视屏| 久久久久久久影视 | 日韩成人在线免费观看 | 亚洲精品五月天 | 天天操夜夜叫 | 伊人电影在线观看 | 亚洲精品国产欧美在线观看 | 婷婷av在线| av国产网站 | 久久久亚洲精品 | 97超在线视频 | 天天操天天操天天操天天操天天操 | 国产小视频国产精品 | 成人av高清在线 | 色99之美女主播在线视频 | 一区二区三区四区五区在线视频 | 国产精品高潮久久av | 欧美二区三区91 | 91人人爽人人爽人人精88v | 久久婷亚洲五月一区天天躁 | 激情欧美日韩一区二区 | 免费在线成人av | 91欧美精品| 菠萝菠萝在线精品视频 | 国产午夜麻豆影院在线观看 | 激情五月***国产精品 | 日本系列中文字幕 | 成年人电影免费看 | 韩国av三级 | 日韩专区中文字幕 | 天天操天天色综合 | 中文字幕免| 久久久久久毛片 | 香蕉免费在线 | a级免费观看 | 这里只有精品视频在线观看 | 日日天天 | 国产精品一区电影 | 欧美a级在线 | 色狠狠婷婷 | 99在线精品观看 | 91精品国产麻豆国产自产影视 | 99re国产视频| av免费电影在线观看 | 91黄色影视| 伊甸园永久入口www 99热 精品在线 | 国产精品久久久久久久久大全 | 亚洲成年人av | 中文字幕资源网 | 久久男人免费视频 | 一区二区三区四区精品 | 欧美午夜剧场 | 午夜性生活 | 五月婷婷开心中文字幕 | 美女网站色免费 | 免费在线激情电影 | 亚洲精选视频免费看 | 久久私人影院 | 偷拍福利视频一区二区三区 | 毛片网站免费在线观看 | 日韩成人不卡 | 怡红院av久久久久久久 | 国产精品中文字幕在线观看 | 久久国内精品 | 精品久久在线 | 97超碰在线免费观看 | 91精品视频一区二区三区 | 久久亚洲成人网 | 日韩www在线| 一区二区三区在线视频111 | 91豆麻精品91久久久久久 | 国产精品免费av | 91传媒91久久久 | 91在线区| 日韩高清成人 | 在线观看成人国产 | 深夜男人影院 | www五月天com | 特级西西444www高清大视频 | 午夜电影久久久 | 日韩欧美在线影院 | 久久免费视频1 | 亚洲精品99久久久久中文字幕 | 国产原创av片 | 成人黄色小说在线观看 | 一区二区三区四区不卡 | 久艹在线观看视频 | 久久九九国产视频 | 狠狠色狠狠色合久久伊人 | 久久精品国产一区二区三 | 99免费在线视频 | 中文字幕在线免费观看 | 国产一级免费视频 | 国产小视频在线 | 一本色道久久综合亚洲二区三区 | 97日日碰人人模人人澡分享吧 | 国产精品69久久久久 | 人人干天天干 | 九九视频这里只有精品 | 97av色| 久久视频6 | 免费日韩一级片 | 日韩精品免费一区二区三区 | 国产精品久久久久久久久免费 | 国产精品涩涩屋www在线观看 | 久久国产精品影片 | 三上悠亚一区二区在线观看 | www.久久久com| 中文字幕xxxx | 免费中文字幕视频 | 日韩城人在线 | 深爱激情五月婷婷 | 99riav1国产精品视频 | 日日干天天 | 精品在线小视频 | 区一区二区三在线观看 | 久久九九久久 | 国产视频1 | 亚洲激情p | 天天干天天射天天插 | 四虎影视国产精品免费久久 | 狠狠的干狠狠的操 | 久久久国产精品人人片99精片欧美一 | 在线观看成人福利 | 中文字幕在线第一页 | 欧美日韩午夜爽爽 | 丁香色综合| 免费一级片久久 | 奇米影视999| 欧美91精品久久久久国产性生爱 | 国产日韩精品一区二区在线观看播放 | 欧美日韩在线电影 | 免费三级黄色片 | 日韩精品免费在线 | 久久精品a | 亚洲国产中文字幕在线视频综合 | 欧美色图另类 | 国产一级片在线播放 | 欧美精品一区二区三区一线天视频 | 91精品在线免费 | ,午夜性刺激免费看视频 | 97超碰在线播放 | 免费观看的黄色片 | av三级在线播放 | 国产美女免费观看 | 日韩电影在线观看一区二区 | 97在线观看视频免费 | 婷婷去俺也去六月色 | 日韩精品在线观看视频 | 97在线影院| 国产91大片 | 99产精品成人啪免费网站 | av一本久道久久波多野结衣 | 精品视频成人 | 91手机视频在线 | 婷婷国产一区二区三区 | 国产视频在线看 | 岛国一区在线 | 奇米影视8888 | 一级大片在线观看 | 视频在线99| 精品国产一区二区三区蜜臀 | 久草精品视频在线播放 | 久久艹综合| 中文字幕在线观看第一页 | 国产免费亚洲高清 | 国产理论片在线观看 | 亚洲一区二区三区miaa149 | 久久精品久久久精品美女 | 亚洲视频aaa| 久久99在线 | 五月婷婷六月丁香 | 欧美午夜寂寞影院 | 中文字幕在线观看第二页 | 91精品爽啪蜜夜国产在线播放 | 在线观看中文av | 美女免费黄视频网站 | 国产在线欧美日韩 | 欧美日韩1区2区 | 在线激情av电影 | 色一级片 | 在线观看www91 | 91亚洲综合 | 国产高清在线观看 | 九九九免费视频 | 天天射天天色天天干 | 在线观看成年人 | 综合网av | 免费观看的av | 激情六月婷婷久久 | 人人超碰97 | 久久亚洲影院 | 免费特级黄色片 | 久久999久久| 蜜桃视频日韩 | 超碰人人99 | 国产视频综合在线 | 亚洲 欧洲av | 91精品人成在线观看 | 香蕉97视频观看在线观看 | 国产亚洲成人精品 | 亚洲日本色 | 亚洲动漫在线观看 | 国产精品免费久久久久久 | 亚洲国产资源 | 国产又黄又硬又爽 | 亚州欧美视频 | 国产精品四虎 | 久久久久成 | 亚洲va欧洲va国产va不卡 | 夜夜干夜夜 | 日韩欧美综合在线视频 | 在线精品国产 | 美女视频一区二区 | 精品一区二区免费 | 又黄又爽免费视频 | 91九色免费视频 | 最近最新中文字幕视频 | 国产在线播放一区 | 丝袜足交在线 | 日本爱爱免费视频 | 91天堂影院 | 国产又粗又硬又爽的视频 | 免费福利在线视频 | 国产精品高潮呻吟久久久久 | 亚洲欧美经典 | 欧美巨乳网 | 啪啪资源| 日韩av线观看 | 99电影 | 高清av免费一区中文字幕 | 国产精品麻豆视频 | 狠狠色伊人亚洲综合网站色 | 色天天中文 | 国产精品一区二区久久精品爱微奶 | 国产在线高清 | 日日操天天操狠狠操 | 久久久69| 激情综合色综合久久 | 一区二区三区中文字幕在线观看 | 毛片一区二区 | 国产一线二线三线性视频 | 日韩欧美视频在线免费观看 | 国产黄色片在线 | 91视频在线国产 | 草久久久久 | 在线国产高清 | 中文字幕色婷婷在线视频 | 欧美日韩精品影院 | 日韩综合一区二区三区 | 色久av| 九色精品免费永久在线 | 日日射天天射 | 国产精品久久久久久模特 | 精品五月天 | 日日操天天操夜夜操 | 五月色丁香 | 青青草国产在线 | 天天色天天色天天色 | 在线观看视频97 | 精品女同一区二区三区在线观看 | 精品国偷自产国产一区 | 天天撸夜夜操 | 在线不卡a | www.久久免费视频 | 欧美激情精品久久久久久免费印度 | 91麻豆精品久久久久久 | 一区二区不卡 | 精品夜夜嗨av一区二区三区 | 色91在线视频 | 91免费的视频在线播放 | 色综合亚洲精品激情狠狠 | 亚洲免费婷婷 | 中文在线免费一区三区 | 麻豆系列在线观看 | 日韩国产精品一区 | 日韩在线观看视频一区二区三区 | 超碰人人在线 | 亚洲久草在线 | 在线观看韩日电影免费 | 懂色av一区二区三区蜜臀 | 久久久久五月 | 91成人在线网站 | 91看片麻豆 | 国产精品免费一区二区三区 | 欧美巨乳波霸 | 国产又黄又硬又爽 | www.夜夜操| 九九一级片 | 亚洲va欧洲va国产va不卡 | 涩涩网站在线 | 探花在线观看 | 欧美韩国日本在线 | 国产精品毛片久久久 | 亚洲3级| 欧美精品亚洲精品日韩精品 | 国产成人三级在线 | 少妇高潮冒白浆 | 国产精品成人一区二区三区吃奶 | 久久精品网站免费观看 | 免费91在线观看 | 欧美久久影院 | 在线观看视频在线 | 色偷偷中文字幕 | 日日夜夜草 | 在线中文字幕av观看 | 日韩高清三区 | 91久色蝌蚪 | 五月开心激情 | 久久久午夜电影 | 久久99九九99精品 | 91av中文 | 欧美成人性网 | www.av免费| 最新婷婷色| 国产99久久久精品 | 国产乱对白刺激视频不卡 | 免费视频xnxx com | 六月丁香伊人 | 1024手机基地在线观看 | 免费手机黄色网址 | 久草在线免费看视频 | 精品美女视频 | 一区二区三区在线观看免费视频 | 99精品国产99久久久久久97 | 久久噜噜少妇网站 | 99久久精品久久久久久清纯 | 亚洲第一香蕉视频 | 粉嫩av一区二区三区免费 | 免费合欢视频成人app | 精品国产一区二区三区不卡 | 69久久久 | 欧美日韩国产综合网 | 久久在线视频精品 | 精品亚洲视频在线观看 | 国产精品久久久久久久7电影 | 亚洲欧美视频网站 | 欧美日韩在线精品一区二区 | 色综合久久88色综合天天 | 日韩h在线观看 | 色多多视频在线观看 | 日韩欧美有码在线 | 在线观看av国产 | 一级特黄aaa大片在线观看 | 免费日韩一区二区 | av福利在线导航 | 开心激情五月网 | 免费成人结看片 | 成人在线观看av | 国产精品久久久久久久久久不蜜月 | 欧美日韩3p| 综合激情伊人 | 91在线porny国产在线看 | 五月天婷婷在线观看视频 | 国产日韩精品一区二区 | 97电影院在线观看 | 97福利在线观看 | 日本黄色片一区二区 | 免费日韩一区二区三区 | 午夜色婷婷 | 91一区二区在线 | 911久久香蕉国产线看观看 | www五月婷婷 | 亚洲草视频 | 丁香视频全集免费观看 | 91黄色免费看 | 黄色成人av | 在线看91| 日韩色一区二区三区 | 国产日韩视频在线观看 | 国产不卡视频在线 | 中文字幕国产在线 | 久久三级视频 | 91精品视频免费看 | 99久热精品 | 久久av高清 | 超碰人人做| 亚洲伊人色 | 午夜精品影院 | 人人爽人人乐 | 69亚洲精品 | 毛片网在线播放 | 色在线免费观看 | 一级片色播影院 | 国产成a人亚洲精v品在线观看 | 亚洲精品国 | 成人在线观看资源 | 久久久久| 国内精品久久久久久久久久清纯 | 天天做日日做天天爽视频免费 |