国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

python 爬取微信文章

2020-01-04 17:47:41
字體:
來源:轉載
供稿:網友
本文給大家分享的是使用python通過搜狗入口,爬取微信文章的小程序,非常的簡單實用,有需要的小伙伴可以參考下
 

本人想搞個采集微信文章的網站,無奈實在從微信本生無法找到入口鏈接,網上翻看了大量的資料,發現大家的做法總體來說大同小異,都是以搜狗為入口。下文是筆者整理的一份python爬取微信文章的代碼,有興趣的歡迎閱讀

#coding:utf-8author = 'haoning'**#!/usr/bin/env pythonimport timeimport datetimeimport requests**import jsonimport sysreload(sys)sys.setdefaultencoding( "utf-8" )import reimport xml.etree.ElementTree as ETimport os#OPENID = 'oIWsFtyel13ZMva1qltQ3pfejlwU'OPENID = 'oIWsFtw_-W2DaHwRz1oGWzL-wF9M&ext'XML_LIST = []# get current time in millisecondscurrent_milli_time = lambda: int(round(time.time() * 1000))def get_json(pageIndex):global OPENIDthe_headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36','Referer': 'http://weixin.sogou.com/gzh?openid={0}'.format(OPENID),'Host': 'weixin.sogou.com'}url = 'http://weixin.sogou.com/gzhjs?cb=sogou.weixin.gzhcb&openid={0}&page={1}&t={2}'.format(OPENID, pageIndex, current_milli_time()) #urlprint(url)response = requests.get(url, headers = the_headers)# TO-DO; check if match the regresponse_text = response.textprint response_textjson_start = response_text.index('sogou.weixin.gzhcb(') + 19json_end = response_text.index(')') - 2json_str = response_text[json_start : json_end] #get json#print(json_str)# convert json_str to json objectjson_obj = json.loads(json_str) #get json obj# print json_obj['totalPages']return json_objdef add_xml(jsonObj):global XML_LISTxmls = jsonObj['items'] #get item#print type(xmls)XML_LIST.extend(xmls) #用新列表擴展原來的列表**[#www.oksousou.com][2]**# ------------ Main ----------------print 'play it :) '# get total pagesdefault_json_obj = get_json(1)total_pages = 0total_items = 0if(default_json_obj):# add the default xmlsadd_xml(default_json_obj)# get the rest itemstotal_pages = default_json_obj['totalPages']total_items = default_json_obj['totalItems']print total_pages# iterate all pagesif(total_pages >= 2):  for pageIndex in range(2, total_pages + 1):    add_xml(get_json(pageIndex)) #extend    print 'load page ' + str(pageIndex)    print len(XML_LIST)
 

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 遵化市| 中西区| 呼玛县| 淄博市| 广汉市| 浠水县| 饶阳县| 江永县| 汉沽区| 会昌县| 阆中市| 华宁县| 常山县| 新巴尔虎右旗| 广丰县| 都昌县| 龙井市| 永新县| 石棉县| 宁波市| 清丰县| 闵行区| 鞍山市| 开江县| 高阳县| 滕州市| 嘉善县| 抚松县| 常州市| 林口县| 舟山市| 长白| 和林格尔县| 常德市| 广饶县| 彰化市| 湖州市| 中江县| 五家渠市| 宣恩县| 金湖县|