国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python使用scrapy采集數據過程中放回下載過大頁面的方法

2020-02-23 00:36:43
字體:
來源:轉載
供稿:網友

本文實例講述了Python使用scrapy采集數據過程中放回下載過大頁面的方法。分享給大家供大家參考。具體分析如下:

添加以下代碼到settings.py,myproject為你的項目名稱
代碼如下:DOWNLOADER_HTTPCLIENTFACTORY = 'myproject.downloader.LimitSizeHTTPClientFactory'

自定義限制下載過大頁面的模塊
代碼如下:MAX_RESPONSE_SIZE = 1048576 # 1Mb
from scrapy.core.downloader.webclient import ScrapyHTTPClientFactory, ScrapyHTTPPageGetter
class LimitSizePageGetter(ScrapyHTTPPageGetter):
    def handleHeader(self, key, value):
        ScrapyHTTPPageGetter.handleHeader(self, key, value)
        if key.lower() == 'content-length' and int(value) > MAX_RESPONSE_SIZE:
            self.connectionLost('oversized')
class LimitSizeHTTPClientFactory(ScrapyHTTPClientFactory):
     protocol = LimitSizePageGetter

希望本文所述對大家的Python程序設計有所幫助。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 安塞县| 东莞市| 邵东县| 临泉县| 柳林县| 南乐县| 阳谷县| 睢宁县| 鱼台县| 海阳市| 松原市| 云林县| 梁平县| 金门县| 昭苏县| 阿拉善左旗| 筠连县| 桐乡市| 昌都县| 双城市| 商城县| 内黄县| 广水市| 吉安县| 伊川县| 休宁县| 阿城市| 苏尼特右旗| 彰武县| 奈曼旗| 临沂市| 凤凰县| 勐海县| 宝应县| 汽车| 烟台市| 奉新县| 忻州市| 扎鲁特旗| 东阿县| 乌拉特后旗|