国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python爬豆瓣電影實例

2020-01-04 15:48:39
字體:
來源:轉載
供稿:網友

文件結構

Python,豆瓣電影

html_downloader.py - 下載網頁html內容

#!/usr/bin/python# -*- coding: UTF-8 -*-import urllib2class HtmlDownloader(object):  def downlod(self, url):    if url is None:      return None    response = urllib2.urlopen(url)    if response.getcode() != 200:      return None    return response.read()

html_outputer.py - 輸出結果到文件中

#!/usr/bin/python# -*- coding: UTF-8 -*-class HtmlOutputer(object):  def collect_data(self, movie_data):    if movie_data is None:      return    fout = open('output.html', 'a+')    for data in movie_data:      print data['name'] + '|', data['rate'] + '|', data['actor'], '/n'      fout.write('%s,' % data['name'].encode('utf-8'))      fout.write('%s,' % data['rate'])      fout.write('%s/n' % data['actor'].encode('utf-8'))    fout.close()

html_parser.py: 解析器:解析html的dom樹

#!/usr/bin/python# -*- coding: UTF-8 -*-from bs4 import BeautifulSoupclass HtmlParser(object):  def __init__(self):    pass  def parser_html(self, cnt):    if cnt is None:      return    soup = BeautifulSoup(cnt, 'html.parser', from_encoding='utf-8')    # movie_name, movie_desc, movie_rate =    return self.get_movie_names(soup)  def get_movie_names(self, soup):    movie_data = []    movie_all = soup.find('div', class_='article').find_next('table').find_next_sibling('div').find_next_sibling('div').find_all('table')    count = 1    for movie_one in movie_all:      movie_data.append(self.get_movie_name(movie_one))      # if count > 2:      #   break      count += 1    return movie_data  def get_movie_name(self, cnt):    info = {}    soup = BeautifulSoup(str(cnt), 'html.parser', from_encoding='utf-8')    movie_one = soup.find('tr', class_='item').find_next('td').find_next_sibling('td').find('div', class_='pl2')    info['name'] = movie_one.find('a').get_text().replace("/n", "").replace(" ", "")    info['actor'] = movie_one.find('p', class_='pl').get_text().replace("/n", "").replace(" ", "")    info['rate'] = movie_one.find('div', class_='star clearfix').find('span', class_='rating_nums').get_text()    return info

spider_main.py - 主函數

#!/usr/bin/python# -*- coding: UTF-8 -*-import html_parser, html_outputer, html_downloaderclass SpiderMain(object):  def __init__(self):    self.parser = html_parser.HtmlParser()    self.outputer = html_outputer.HtmlOutputer()    self.downloader = html_downloader.HtmlDownloader()  def craw(self, url):    html_cnt = self.downloader.downlod(url)    movie_data = self.parser.parser_html(html_cnt)    self.outputer.collect_data(movie_data)if __name__ == '__main__':  url = 'https://movie.douban.com/tag/2017?start=100&type=T'  spider = SpiderMain()  spider.craw(url)

綜述

其實就是使用了urllib2和BeautifulSoup庫,沒啥好說的,你也可以直接改url,然后更改html_parser.py文件來滿足你自己的爬蟲需求。當前也可以更改html_outputer.py來定義保存格式,目前是csv。


注:相關教程知識閱讀請移步到python教程頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 余庆县| 镇宁| 旌德县| 英山县| 南郑县| 吴堡县| 江都市| 延长县| 沅陵县| 佛山市| 孝感市| 丰都县| 九龙坡区| 稷山县| 牙克石市| 黑山县| 拉萨市| 星座| 大港区| 永平县| 海宁市| 揭西县| 木兰县| 安丘市| 新竹县| 禄丰县| 五原县| 定远县| 张家界市| 聂拉木县| 荃湾区| 台南市| 湖北省| 河西区| 黄陵县| 白山市| 上虞市| 丰原市| 栾城县| 白沙| 兴隆县|