国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

scrapy自定義pipeline類實現將采集數據保存到mongodb的方法

2020-02-23 00:46:23
字體:
來源:轉載
供稿:網友

本文實例講述了scrapy自定義pipeline類實現將采集數據保存到mongodb的方法。分享給大家供大家參考。具體如下:

# Standard Python library imports# 3rd party modulesimport pymongofrom scrapy import logfrom scrapy.conf import settingsfrom scrapy.exceptions import DropItemclass MongoDBPipeline(object):  def __init__(self):    self.server = settings['MONGODB_SERVER']    self.port = settings['MONGODB_PORT']    self.db = settings['MONGODB_DB']    self.col = settings['MONGODB_COLLECTION']    connection = pymongo.Connection(self.server, self.port)    db = connection[self.db]    self.collection = db[self.col]  def process_item(self, item, spider):    err_msg = ''    for field, data in item.items():      if not data:        err_msg += 'Missing %s of poem from %s/n' % (field, item['url'])    if err_msg:      raise DropItem(err_msg)    self.collection.insert(dict(item))    log.msg('Item written to MongoDB database %s/%s' % (self.db, self.col),        level=log.DEBUG, spider=spider)    return item

希望本文所述對大家的python程序設計有所幫助。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 兰西县| 开平市| 康乐县| 甘孜| 葫芦岛市| 饶河县| 西藏| 辉县市| 黄大仙区| 常州市| 盱眙县| 宜州市| 汽车| 阳西县| 云林县| 类乌齐县| 芷江| 岑巩县| 永寿县| 津市市| 兰考县| 巴林右旗| 故城县| 桂东县| 孝义市| 涪陵区| 海安县| 龙川县| 福海县| 广宗县| 锡林浩特市| 介休市| 富民县| 宜君县| 庆阳市| 利川市| 邯郸市| 霍城县| 七台河市| 修水县| 安阳县|