国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python3爬蟲爬取百姓網列表并保存為json功能示例【基于request、lxml和json模塊】

2020-01-04 13:55:27
字體:
來源:轉載
供稿:網友

本文實例講述了Python3爬蟲爬取百姓網列表并保存為json功能。分享給大家供大家參考,具體如下:

python3爬蟲之爬取百姓網列表并保存為json文件。這幾天一直在學習使用python3爬取數據,今天記錄一下,代碼很簡單很容易上手。

首先需要安裝python3。如果還沒有安裝,可參考本站python3安裝與配置相關文章。

首先需要安裝requestslxmljson三個模塊

需要手動創建d.json文件

代碼

import requestsfrom lxml import etreeimport json#構造頭文件,模擬瀏覽器訪問url="http://xian.baixing.com/meirongfuwu/"headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36','referer':url}response=requests.get(url,headers=headers)body=response.text #獲取網頁內容html=etree.HTML(body,etree.HTMLParser())gethtml=html.xpath('//div[contains(@class,"media-body-title")]')# 存儲為數組listjsondata = []for item in gethtml:  jsonone={}  jsonone['title']=item.xpath('.//a[contains(@class,"ad-title")]/text()')[0]  jsonone['url']=item.xpath('.//a[contains(@class,"ad-title")]/attribute::href')[0]  jsonone['phone']=item.xpath('.//button[contains(@class,"contact-button")]/attribute::data-contact')[0]  jsondata.append(jsonone)# 保存為jsonwith open("./d.json",'w',encoding='utf-8') as json_file:  json.dump(jsondata,json_file,ensure_ascii=False)

結果

Python3,爬蟲,百姓網,json,request,lxml

希望本文所述對大家Python程序設計有所幫助。


注:相關教程知識閱讀請移步到python教程頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 台中县| 内江市| 开鲁县| 沾化县| 绥德县| 翁牛特旗| 侯马市| 河东区| 枣阳市| 连平县| 盖州市| 临颍县| 夏津县| 井研县| 当涂县| 专栏| 项城市| 翁牛特旗| 济南市| 辽源市| 连州市| 咸宁市| 平南县| 嵊州市| 南郑县| 米易县| 宝丰县| 威信县| 疏勒县| 阿克陶县| 墨江| 华亭县| 富民县| 青州市| 涿鹿县| 长春市| 三都| 浠水县| 长顺县| 方城县| 威宁|