国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

使用Scrapy爬取動態數據

2020-02-15 23:18:09
字體:
來源:轉載
供稿:網友

對于動態數據的爬取,可以選擇seleniumPhantomJS兩種方式,本文選擇的是PhantomJS。

網址:

https://s.taobao.com/search?q=%E7%AC%94%E8%AE%B0%E6%9C%AC%E7%94%B5%E8%84%91&imgfile=&commend=all&ssid=s5-e&search_type=item&sourceId=tb.index&spm=a21bo.2017.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306

1.首先第一步,對中間件的設置。

進入pipelines.py文件中:

from selenium import webdriverfrom scrapy.http.response.html import HtmlResponsefrom scrapy.http.response import Responseclass SeleniumSpiderMiddleware(object):  def __init__(self):    self.driver = webdriver.PhantomJS()  def process_request(self ,request ,spider):    # 當引擎從調度器中取出request進行請求發送下載器之前    # 會先執行當前的爬蟲中間件 ,在中間件里面使用selenium    # 請求這個request ,拿到動態網站的數據 然后將請求    # 返回給spider爬蟲對象    if spider.name == 'taobao':      # 使用爬蟲文件的url地址      spider.driver.get(request.url)      for x in range(1 ,12 ,2):        i = float(x) / 11        # scrollTop 從上往下的滑動距離        js = 'document.body.scrollTop=document.body.scrollHeight * %f' % i        spider.driver.execute_script(js)      response = HtmlResponse(url=request.url,                  body=spider.driver.page_source,                  encoding='utf-8',                  request=request)      # 這個地方只能返回response對象,當返回了response對象,那么可以直接跳過下載中間件,將response的值傳遞給引擎,引擎又傳遞給 spider進行解析      return response

在設置中,要將middlewares設置打開。

進入settings.py文件中,將

DOWNLOADER_MIDDLEWARES = {  'taobaoSpider.middlewares.SeleniumSpiderMiddleware': 543,}

打開。

2.第二步,爬取數據

回到spider爬蟲文件中。

引入:

from selenium import webdriver

自定義屬性:

def __init__(self):  self.driver = webdriver.PhantomJS()

查找數據和分析數據:

def parse(self, response):  div_info = response.xpath('//div[@class="info-cont"]')  print(div_info)  for div in div_info:    title = div.xpath('.//div[@class="title-row "]/a/text()').extract_first('')    # title = self.driver.find_element_by_class_name("title-row").text    print('名稱:', title)    price = div.xpath('.//div[@class="sale-row row"]/div/span[2]/strong/text()').extract_first('')

3.第三步,傳送數據到item中:

item.py文件中:

name = scrapy.Field()price = scrapy.Field()

回到spider.py爬蟲文件中:

引入:

from ..items import TaobaospiderItem            
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 庆安县| 高邮市| 深水埗区| 星子县| 丁青县| 霍邱县| 和林格尔县| 江口县| 屏南县| 特克斯县| 新蔡县| 哈尔滨市| 昌图县| 建水县| 嫩江县| 巨野县| 泗洪县| 崇礼县| 巴中市| 海口市| 大厂| 雷山县| 兴国县| 平山县| 天峨县| 河北省| 淄博市| 甘谷县| 西城区| 上虞市| 巴彦县| 凤城市| 汾阳市| 增城市| 灵石县| 木里| 灵璧县| 揭东县| 镇江市| 遂平县| 桐庐县|