国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python 制作糗事百科爬蟲實例

2019-11-25 16:32:34
字體:
供稿:網(wǎng)友

早上起來閑來無事做,莫名其妙的就彈出了糗事百科的段子,轉(zhuǎn)念一想既然你送上門來,那我就寫個爬蟲到你網(wǎng)站上爬一爬吧,一來當(dāng)做練練手,二來也算找點樂子。

其實這兩天也正在接觸數(shù)據(jù)庫的內(nèi)容,可以將爬取下來的數(shù)據(jù)保存在數(shù)據(jù)庫中,以待以后的利用。好了,廢話不多說了,先來看看程序爬取的數(shù)據(jù)結(jié)果

值得一提的是,我在程序中想一下子爬取糗事百科 30 頁的內(nèi)容,但是出現(xiàn)了連接錯誤,當(dāng)我把頁數(shù)降到 20 頁的時候,程序就可以正常的跑起來了,不知道是什么原因,渴望知道的大神可以告訴我一聲,感激不盡。

程序非常簡單,直接上源代碼咯

# coding=utf8import reimport requestsfrom lxml import etreefrom multiprocessing.dummy import Pool as ThreadPoolimport sysreload(sys)sys.setdefaultencoding('utf-8')def getnewpage(url, total): nowpage = int(re.search('(/d+)', url, re.S).group(1)) urls = [] for i in range(nowpage, total + 1):  link = re.sub('(/d+)', '%s' % i, url, re.S)  urls.append(link) return urlsdef spider(url): html = requests.get(url) selector = etree.HTML(html.text) author = selector.xpath('//*[@id="content-left"]/div/div[1]/a[2]/@title') content = selector.xpath('//*[@id="content-left"]/div/div[2]/text()') vote = selector.xpath('//*[@id="content-left"]/div/div[3]/span/i/text()') length = len(author) for i in range(0, length):  f.writelines('作者 : ' + author[i] + '/n')  f.writelines('內(nèi)容 :' + str(content[i]).replace('/n','') + '/n')  f.writelines('支持 : ' + vote[i] + '/n/n')if __name__ == '__main__': f = open('info.txt', 'a') url = 'http://www.qiushibaike.com/text/page/1/' urls = getnewpage(url, 20) pool = ThreadPool(4) pool.map(spider,urls) f.close()

如果其中有不懂得部分,可以依次參考我的前三篇文章。

發(fā)表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發(fā)表
主站蜘蛛池模板: 扎赉特旗| 富锦市| 阿克苏市| 香港| 金湖县| 公主岭市| 金沙县| 汝州市| 古浪县| 明水县| 嵊州市| 元氏县| 营山县| 仙居县| 墨脱县| 桐乡市| 南江县| 建瓯市| 沙坪坝区| 北宁市| 许昌市| 罗平县| 桦甸市| 九江县| 灵川县| 绥阳县| 泸定县| 光山县| 从化市| 合江县| 肇庆市| 徐州市| 高青县| 射阳县| 育儿| 泸西县| 呼和浩特市| 若尔盖县| 武川县| 鹤壁市| 临武县|