国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python使用Selenium爬取淘寶異步加載的數據方法

2020-01-04 13:47:32
字體:
來源:轉載
供稿:網友

淘寶的頁面很復雜,如果使用分析ajax或者js的方式,很麻煩

抓取淘寶‘美食'上面的所有食品信息

spider.py

#encoding:utf8import refrom selenium import webdriverfrom selenium.common.exceptions import TimeoutExceptionfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.support import expected_conditions as ECfrom bs4 import BeautifulSoupfrom config import *import pymongoclient=pymongo.MongoClient(MONGODB_URL)db=client[MONGODB_DB]##這里使用PhantomJS,并配置了一些參數browser=webdriver.PhantomJS(service_args=SERVICE_ArGS)##窗口的大小,不設置的話,默認太小,會有問題browser.set_window_size(1400,900)wait=WebDriverWait(browser, 10)def search():  print('正在搜索')##容易出現超時的錯誤  try:##等待這兩個模塊都加載好    browser.get("https://www.taobao.com")    input = wait.until(        EC.presence_of_element_located((By.CSS_SELECTOR, '#q'))      )    submit=wait.until(        EC.element_to_be_clickable((By.CSS_SELECTOR, '#J_TSearchForm > div.search-button > button'))      )    ######這塊python2搞得鬼    #input.send_keys('/u7f8e/u98df'.decode("unicode-escape"))    input.send_keys(KEYWORD.decode("unicode-escape"))    submit.click()    total = wait.until(        EC.presence_of_element_located((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.total'))      )    get_product()    return total.text  except TimeoutException:    return search()def next_page(page_number):  print('翻頁'+str(page_number))  try:    input = wait.until(          EC.presence_of_element_located((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.form > input'))        )    submit=wait.until(        EC.element_to_be_clickable((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.form > span.btn.J_Submit'))      )    input.clear()    input.send_keys(page_number)    submit.click()##判斷是否翻頁成功 高亮的是不是輸入的值,直接加在后面即可    wait.until(EC.text_to_be_present_in_element((By.CSS_SELECTOR,'#mainsrp-pager > div > div > div > ul > li.item.active > span'),str(page_number)))    get_product()  except TimeoutException:    return next_page(page_number)#獲取產品信息def get_product():  products = wait.until(    EC.presence_of_element_located((By.CSS_SELECTOR, '#mainsrp-itemlist .m-itemlist .items'))        )##拿到網頁  html = browser.page_source  soup = BeautifulSoup(html,'lxml')  items = soup.select('#mainsrp-itemlist .m-itemlist .items .item.J_MouserOnverReq')#  print('*************************到此*************')  for item in items:    img = item.select('.J_ItemPic.img')[0].get('src')    price = item.select('.price.g_price.g_price-highlight > strong')[0].get_text()    deal = item.select('.deal-cnt')[0].get_text()    shop = item.select('.row.row-3.g-clearfix > .shop > a > span:nth-of-type(2)')[0].get_text()     location = item.select('.location')[0].get_text()    product={      'img':img,      'price':price,      'deal':deal,      'title':title,      'shop':shop,      'location':location    }#打印一下    import json    j = json.dumps(product)    dict2 = j.decode("unicode-escape")    print dict2    save_to_mongo(product)def save_to_mongo(product):  try:    if db[MONGODB_TABLE].insert(product):      print('存儲到mongodb成功'+str(product))  except Exception:    print("存儲到mongodb失敗"+str(product))def main():  try:    total=search()    ##搜尋 re正則表達式    s=re.compile('(/d+)')    total=int(s.search(total).group(1))    for i in range(2,total+1):      next_page(i)  except Exception:    print('出錯')  finally:    browser.close()if __name__ == '__main__':  main()

config.py

MONGODB_URL='localhost'MONGODB_DB='taobao'MONGODB_TABLE='meishi'SERVICE_ArGS=['--load-images=false','--disk-cache=true']##就是美食這兩個字,直接用漢字會報錯KEYWORD='/u7f8e/u98df'

以上這篇Python使用Selenium爬取淘寶異步加載的數據方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持VEVB武林網。


注:相關教程知識閱讀請移步到python教程頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 右玉县| 巴青县| 克东县| 凤庆县| 泰安市| 寿光市| 安达市| 颍上县| 敖汉旗| 永川市| 阿城市| 中方县| 子洲县| 阳西县| 云阳县| 鄂托克前旗| 大港区| 南木林县| 昌乐县| 凤城市| 荔波县| 进贤县| 子长县| 班玛县| 泰来县| 平遥县| 松原市| 新余市| 泰顺县| 象山县| 南澳县| 新宁县| 应城市| 延津县| 牡丹江市| 伊宁市| 北宁市| 屏东市| 扬州市| 平阴县| 南木林县|