三十七 Python分布式爬虫打造搜索引擎Scrapy精讲—将bloomfilter(布隆过滤器)集成到scrapy-redis中...
Python分布式爬蟲打造搜索引擎Scrapy精講—將bloomfilter(布隆過濾器)集成到scrapy-redis中,判斷URL是否重復(fù)
?
布隆過濾器(Bloom Filter)詳解
?
基本概念
如果想判斷一個元素是不是在一個集合里,一般想到的是將所有元素保存起來,然后通過比較確定。鏈表,樹等等數(shù)據(jù)結(jié)構(gòu)都是這種思路. 但是隨著集合中元素的增加,我們需要的存儲空間越來越大,檢索速度也越來越慢。不過世界上還有一種叫作散列表(又叫哈希表,Hash table)的數(shù)據(jù)結(jié)構(gòu)。它可以通過一個Hash函數(shù)將一個元素映射成一個位陣列(Bit Array)中的一個點(diǎn)。這樣一來,我們只要看看這個點(diǎn)是不是 1 就知道可以集合中有沒有它了。這就是布隆過濾器的基本思想。
Hash面臨的問題就是沖突。假設(shè) Hash 函數(shù)是良好的,如果我們的位陣列長度為 m 個點(diǎn),那么如果我們想將沖突率降低到例如 1%, 這個散列表就只能容納 m/100 個元素。顯然這就不叫空間有效了(Space-efficient)。解決方法也簡單,就是使用多個 Hash,如果它們有一個說元素不在集合中,那肯定就不在。如果它們都說在,雖然也有一定可能性它們在說謊,不過直覺上判斷這種事情的概率是比較低的。
?
優(yōu)點(diǎn)
相比于其它的數(shù)據(jù)結(jié)構(gòu),布隆過濾器在空間和時間方面都有巨大的優(yōu)勢。布隆過濾器存儲空間和插入/查詢時間都是常數(shù)。另外, Hash 函數(shù)相互之間沒有關(guān)系,方便由硬件并行實(shí)現(xiàn)。布隆過濾器不需要存儲元素本身,在某些對保密要求非常嚴(yán)格的場合有優(yōu)勢。
布隆過濾器可以表示全集,其它任何數(shù)據(jù)結(jié)構(gòu)都不能;
k 和 m 相同,使用同一組 Hash 函數(shù)的兩個布隆過濾器的交并差運(yùn)算可以使用位操作進(jìn)行。
?
缺點(diǎn)
但是布隆過濾器的缺點(diǎn)和優(yōu)點(diǎn)一樣明顯。誤算率(False Positive)是其中之一。隨著存入的元素數(shù)量增加,誤算率隨之增加。但是如果元素數(shù)量太少,則使用散列表足矣。
另外,一般情況下不能從布隆過濾器中刪除元素. 我們很容易想到把位列陣變成整數(shù)數(shù)組,每插入一個元素相應(yīng)的計數(shù)器加1, 這樣刪除元素時將計數(shù)器減掉就可以了。然而要保證安全的刪除元素并非如此簡單。首先我們必須保證刪除的元素的確在布隆過濾器里面. 這一點(diǎn)單憑這個過濾器是無法保證的。另外計數(shù)器回繞也會造成問題。
?
?
python 基于redis實(shí)現(xiàn)的bloomfilter(布隆過濾器),BloomFilter_imooc
BloomFilter_imooc下載
下載地址:https://github.com/liyaopinner/BloomFilter_imooc
依賴關(guān)系:
python 基于redis實(shí)現(xiàn)的bloomfilter
依賴mmh3
安裝依賴包:
pip install mmh3
?
1、安裝好BloomFilter_imooc所需要的依賴
2、將下載的BloomFilter_imooc包解壓后,將里面的py_bloomfilter.py文件復(fù)制到scrapy工程目錄
py_bloomfilter.py(布隆過濾器)源碼
import mmh3 import redis import math import timeclass PyBloomFilter():#內(nèi)置100個隨機(jī)種子SEEDS = [543, 460, 171, 876, 796, 607, 650, 81, 837, 545, 591, 946, 846, 521, 913, 636, 878, 735, 414, 372,344, 324, 223, 180, 327, 891, 798, 933, 493, 293, 836, 10, 6, 544, 924, 849, 438, 41, 862, 648, 338,465, 562, 693, 979, 52, 763, 103, 387, 374, 349, 94, 384, 680, 574, 480, 307, 580, 71, 535, 300, 53,481, 519, 644, 219, 686, 236, 424, 326, 244, 212, 909, 202, 951, 56, 812, 901, 926, 250, 507, 739, 371,63, 584, 154, 7, 284, 617, 332, 472, 140, 605, 262, 355, 526, 647, 923, 199, 518]#capacity是預(yù)先估計要去重的數(shù)量#error_rate表示錯誤率#conn表示redis的連接客戶端#key表示在redis中的鍵的名字前綴def __init__(self, capacity=1000000000, error_rate=0.00000001, conn=None, key='BloomFilter'):self.m = math.ceil(capacity*math.log2(math.e)*math.log2(1/error_rate)) #需要的總bit位數(shù)self.k = math.ceil(math.log1p(2)*self.m/capacity) #需要最少的hash次數(shù)self.mem = math.ceil(self.m/8/1024/1024) #需要的多少M(fèi)內(nèi)存self.blocknum = math.ceil(self.mem/512) #需要多少個512M的內(nèi)存塊,value的第一個字符必須是ascii碼,所有最多有256個內(nèi)存塊self.seeds = self.SEEDS[0:self.k]self.key = keyself.N = 2**31-1self.redis = conn# print(self.mem)# print(self.k)def add(self, value):name = self.key + "_" + str(ord(value[0])%self.blocknum)hashs = self.get_hashs(value)for hash in hashs:self.redis.setbit(name, hash, 1)def is_exist(self, value):name = self.key + "_" + str(ord(value[0])%self.blocknum)hashs = self.get_hashs(value)exist = Truefor hash in hashs:exist = exist & self.redis.getbit(name, hash)return existdef get_hashs(self, value):hashs = list()for seed in self.seeds:hash = mmh3.hash(value, seed)if hash >= 0:hashs.append(hash)else:hashs.append(self.N - hash)return hashspool = redis.ConnectionPool(host='127.0.0.1', port=6379, db=0) conn = redis.StrictRedis(connection_pool=pool)# 使用方法 # if __name__ == "__main__": # bf = PyBloomFilter(conn=conn) # 利用連接池連接Redis # bf.add('www.jobbole.com') # 向Redis默認(rèn)的通道添加一個域名 # bf.add('www.luyin.org') # 向Redis默認(rèn)的通道添加一個域名 # print(bf.is_exist('www.zhihu.com')) # 打印此域名在通道里是否存在,存在返回1,不存在返回0 # print(bf.is_exist('www.luyin.org')) # 打印此域名在通道里是否存在,存在返回1,不存在返回0?
?
將py_bloomfilter.py(布隆過濾器)集成到scrapy-redis中的dupefilter.py去重器中,使其抓取過的URL不添加到下載器,沒抓取過的URL添加到下載器
?
scrapy-redis中的dupefilter.py去重器修改
import logging import timefrom scrapy.dupefilters import BaseDupeFilter from scrapy.utils.request import request_fingerprintfrom . import defaults from .connection import get_redis_from_settings from bloomfilter.py_bloomfilter import conn,PyBloomFilter #導(dǎo)入布隆過濾器logger = logging.getLogger(__name__)# TODO: Rename class to RedisDupeFilter. class RFPDupeFilter(BaseDupeFilter):"""Redis-based request duplicates filter.This class can also be used with default Scrapy's scheduler."""logger = loggerdef __init__(self, server, key, debug=False):"""Initialize the duplicates filter.Parameters----------server : redis.StrictRedisThe redis server instance.key : strRedis key Where to store fingerprints.debug : bool, optionalWhether to log filtered requests."""self.server = serverself.key = keyself.debug = debugself.logdupes = True# 集成布隆過濾器self.bf = PyBloomFilter(conn=conn, key=key) # 利用連接池連接Redis@classmethoddef from_settings(cls, settings):"""Returns an instance from given settings.This uses by default the key ``dupefilter:<timestamp>``. When using the``scrapy_redis.scheduler.Scheduler`` class, this method is not used asit needs to pass the spider name in the key.Parameters----------settings : scrapy.settings.SettingsReturns-------RFPDupeFilterA RFPDupeFilter instance."""server = get_redis_from_settings(settings)# XXX: This creates one-time key. needed to support to use this# class as standalone dupefilter with scrapy's default scheduler# if scrapy passes spider on open() method this wouldn't be needed# TODO: Use SCRAPY_JOB env as default and fallback to timestamp.key = defaults.DUPEFILTER_KEY % {'timestamp': int(time.time())}debug = settings.getbool('DUPEFILTER_DEBUG')return cls(server, key=key, debug=debug)@classmethoddef from_crawler(cls, crawler):"""Returns instance from crawler.Parameters----------crawler : scrapy.crawler.CrawlerReturns-------RFPDupeFilterInstance of RFPDupeFilter."""return cls.from_settings(crawler.settings)def request_seen(self, request):"""Returns True if request was already seen.Parameters----------request : scrapy.http.RequestReturns-------bool"""fp = self.request_fingerprint(request)# 集成布隆過濾器if self.bf.is_exist(fp): # 判斷如果域名在Redis里存在return Trueelse:self.bf.add(fp) # 如果不存在,將域名添加到Redisreturn False# This returns the number of values added, zero if already exists.# added = self.server.sadd(self.key, fp)# return added == 0def request_fingerprint(self, request):"""Returns a fingerprint for a given request.Parameters----------request : scrapy.http.RequestReturns-------str"""return request_fingerprint(request)def close(self, reason=''):"""Delete data on close. Called by Scrapy's scheduler.Parameters----------reason : str, optional"""self.clear()def clear(self):"""Clears fingerprints data."""self.server.delete(self.key)def log(self, request, spider):"""Logs given request.Parameters----------request : scrapy.http.Requestspider : scrapy.spiders.Spider"""if self.debug:msg = "Filtered duplicate request: %(request)s"self.logger.debug(msg, {'request': request}, extra={'spider': spider})elif self.logdupes:msg = ("Filtered duplicate request %(request)s"" - no more duplicates will be shown"" (see DUPEFILTER_DEBUG to show all duplicates)")self.logger.debug(msg, {'request': request}, extra={'spider': spider})self.logdupes = False?
?
爬蟲文件
#!/usr/bin/env python # -*- coding:utf8 -*-from scrapy_redis.spiders import RedisCrawlSpider # 導(dǎo)入scrapy_redis里的RedisCrawlSpider類 import scrapy from scrapy.linkextractors import LinkExtractor from scrapy.spiders import Ruleclass jobboleSpider(RedisCrawlSpider): # 自定義爬蟲類,繼承RedisSpider類name = 'jobbole' # 設(shè)置爬蟲名稱allowed_domains = ['www.luyin.org'] # 爬取域名redis_key = 'jobbole:start_urls' # 向redis設(shè)置一個名稱儲存urlrules = (# 配置抓取列表頁規(guī)則# Rule(LinkExtractor(allow=('ggwa/.*')), follow=True),# 配置抓取內(nèi)容頁規(guī)則Rule(LinkExtractor(allow=('.*')), callback='parse_job', follow=True),)def parse_job(self, response): # 回調(diào)函數(shù),注意:因?yàn)镃rawlS模板的源碼創(chuàng)建了parse回調(diào)函數(shù),所以切記我們不能創(chuàng)建parse名稱的函數(shù)# 利用ItemLoader類,加載items容器類填充數(shù)據(jù)neir = response.css('title::text').extract()print(neir)啟動爬蟲?scrapy crawl jobbole
cd 到redis安裝目錄執(zhí)行命令:redis-cli -h 127.0.0.1 -p 6379 ?連接redis客戶端
連接redis客戶端后執(zhí)行命令:lpush jobbole:start_urls http://www.luyin.org ?向redis添加一個爬蟲起始url
開始爬取
?
redis狀態(tài)說明:
?
轉(zhuǎn)載于:https://www.cnblogs.com/meng-wei-zhi/p/8182833.html
總結(jié)
以上是生活随笔為你收集整理的三十七 Python分布式爬虫打造搜索引擎Scrapy精讲—将bloomfilter(布隆过滤器)集成到scrapy-redis中...的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 我想做linux的磁盘io性能测试,有什
- 下一篇: python基础十一之迭代器和生成器