国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python 用Redis簡(jiǎn)單實(shí)現(xiàn)分布式爬蟲的方法

2020-01-04 16:16:46
字體:
供稿:網(wǎng)友

Redis通常被認(rèn)為是一種持久化的存儲(chǔ)器關(guān)鍵字-值型存儲(chǔ),可以用于幾臺(tái)機(jī)子之間的數(shù)據(jù)共享平臺(tái)。

連接數(shù)據(jù)庫

注意:假設(shè)現(xiàn)有幾臺(tái)在同一局域網(wǎng)內(nèi)的機(jī)器分別為Master和幾個(gè)Slaver

Master連接時(shí)host為localhost即本機(jī)的ip

_db = redis.Reds(host='localhost', port=6379, db=0)

Slaver連接時(shí)的host也為Master的ip,端口port和數(shù)據(jù)庫db不寫時(shí)為默認(rèn)值6379、0

_db = redis.Redis(host='192.168.235.80')

Redis含列表、集合,字符串等幾種數(shù)據(jù)結(jié)構(gòu),具體詳細(xì)的幾種數(shù)據(jù)結(jié)構(gòu)的操作命令可查看Redis官網(wǎng)http://redis.io/commands,下面是對(duì)集合進(jìn)行操作的一些命令

_db.sadd(key, *values) # 插入指定values到集合中并返回新插入的的值的數(shù)量_db.spop(self.key) # 隨機(jī)從集合中的得到一個(gè)元素將其從集合中刪除并作為返回值返回_db.smembers(self.key) # 返回集合的所有元素_db.delete(key) # 刪除整個(gè)集合, 成功返回1, 失敗返回0_db.srandmember(self.key) # 從集合中隨機(jī)選取一個(gè)元素作為返回_db.sismember(self.key, value) # 判斷指定value是否在本集合中,成功返回1,失敗返回0

例如,Master可利用redis將url上傳到數(shù)據(jù)庫

for i in range(20): # 將需爬取的糗事百科前20頁的url并存入urls集合  url = 'http://www.qiushibaike.com/hot/page/%d/' % (i + 1)  _db.sadd('urls', url) # 將url插入關(guān)鍵字urls集合中,若url已存在則不再插入

進(jìn)而Master和Slaver可從數(shù)據(jù)庫里獲取url

url = _db.spop('urls') # 隨機(jī)從urls集合中取出一個(gè)url返回并將其刪去

同理,Master可利用上面的方法將其他一些共用的資源上傳到數(shù)據(jù)庫,Slaver就可從數(shù)據(jù)庫下載需要的東西。下面是一個(gè)完整的例子

# coding=utf-8import urllib2import reimport timeimport redisheaders = {'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Ubuntu Chromium/49.0.2623.108 Chrome/49.0.2623.108 Safari/537.36'}job_redis = redis.Redis(host='192.168.235.80') # host為主機(jī)的IP,port和db為默認(rèn)值class Clawer(object):  identity = 'master' # 或slaver  def __init__(self):    if self.identity == 'master':      for i in range(20): # 將需爬取的糗事百科前20頁的url并存入urls集合        url = 'http://www.qiushibaike.com/hot/page/%d/' % (i + 1)        job_redis.sadd('urls', url)    self.main()  def get_content(self):    """    從糗事百科中獲取故事    :return: 故事列表    """    stories = []    content_pattern = re.compile('<div class="content">([/w/W]*?)</div>([/w/W]*?)class="stats"') # 匹配故事內(nèi)容(第一空)和是否含有圖片(第二空)的模板    pattern = re.compile('<.*?>') # 匹配包括括號(hào)及括號(hào)內(nèi)無關(guān)內(nèi)容的模板    url = job_redis.spop('urls')    while url: # 當(dāng)數(shù)據(jù)庫還存在網(wǎng)頁url,取出一個(gè)并爬取      try:        request = urllib2.Request(url, headers=headers)        response = urllib2.urlopen(request)        text = response.read()      except urllib2.URLError, e: # 若出現(xiàn)網(wǎng)頁讀取錯(cuò)誤捕獲并輸出        if hasattr(e, "reason"):          print e.reason      content = re.findall(content_pattern, text) # 獲取含模板內(nèi)容的列表      for x in content:        if "img" not in x[1]: # 過濾含圖片的故事          x = re.sub(pattern, '', x[0])          x = re.sub('/n', '', x)          stories.append(x)      url = job_redis.spop('urls')      time.sleep(3)    return stories  def main(self):    self.get_content()if __name__ == '__main__':  Clawer()

將此代碼在幾臺(tái)機(jī)器同時(shí)運(yùn)行,調(diào)節(jié)其身份為master或slaver,做到簡(jiǎn)單的分布式爬蟲

以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持VEVB武林網(wǎng)。


注:相關(guān)教程知識(shí)閱讀請(qǐng)移步到python教程頻道。
發(fā)表評(píng)論 共有條評(píng)論
用戶名: 密碼:
驗(yàn)證碼: 匿名發(fā)表
主站蜘蛛池模板: 邵阳县| 安塞县| 桃江县| 兴宁市| 铜陵市| 藁城市| 楚雄市| 读书| 兴义市| 浮梁县| 梁平县| 沅陵县| 奉节县| 上饶市| 瓦房店市| 项城市| 桃园市| 洛浦县| 安岳县| 宣恩县| 徐州市| 贺兰县| 兴安县| 清苑县| 安乡县| 习水县| 花莲县| 丹东市| 吕梁市| 祁门县| 松江区| 霍林郭勒市| 嘉禾县| 乌拉特后旗| 搜索| 惠东县| 澄江县| 东丰县| 额尔古纳市| 孝义市| 塔城市|