国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

簡單實現(xiàn)python爬蟲功能

2019-11-25 16:59:57
字體:
來源:轉載
供稿:網(wǎng)友

       在我們?nèi)粘I暇W(wǎng)瀏覽網(wǎng)頁的時候,經(jīng)常會看到一些好看的圖片,我們就希望把這些圖片保存下載,或者用戶用來做桌面壁紙,或者用來做設計的素材。

  我們最常規(guī)的做法就是通過鼠標右鍵,選擇另存為。但有些圖片鼠標右鍵的時候并沒有另存為選項,還有辦法就通過就是通過截圖工具截取下來,但這樣就降低圖片的清晰度。好吧~!其實你很厲害的,右鍵查看頁面源代碼。

  我們可以通過python 來實現(xiàn)這樣一個簡單的爬蟲功能,把我們想要的代碼爬取到本地。下面就看看如何使用python來實現(xiàn)這樣一個功能。

一、獲取整個頁面數(shù)據(jù) 

首先我們可以先獲取要下載圖片的整個頁面信息。

getjpg.py

#coding=utf-8import urllibdef getHtml(url):  page = urllib.urlopen(url)  html = page.read()  return htmlhtml = getHtml("http://tieba.baidu.com/p/2738151262")print html

  Urllib模塊提供了讀取web頁面數(shù)據(jù)的接口,我們可以像讀取本地文件一樣讀取www和ftp上的數(shù)據(jù)。首先,我們定義了一個getHtml()函數(shù):

  urllib.urlopen()方法用于打開一個URL地址。

  read()方法用于讀取URL上的數(shù)據(jù),向getHtml()函數(shù)傳遞一個網(wǎng)址,并把整個頁面下載下來。執(zhí)行程序就會把整個網(wǎng)頁打印輸出。

二、篩選頁面中想要的數(shù)據(jù)

Python 提供了非常強大的正則表達式,我們需要先要了解一點python 正則表達式的知識才行。

假如我們百度貼吧找到了幾張漂亮的壁紙,通過到前段查看工具。找到了圖片的地址,如:src=”http://imgsrc.baidu.com/forum......jpg”pic_ext=”jpeg”

修改代碼如下:

import reimport urllibdef getHtml(url):  page = urllib.urlopen(url)  html = page.read()  return htmldef getImg(html):  reg = r'src="(.+?/.jpg)" pic_ext'  imgre = re.compile(reg)  imglist = re.findall(imgre,html)  return imglist     html = getHtml("http://tieba.baidu.com/p/2460150866")print getImg(html)

我們又創(chuàng)建了getImg()函數(shù),用于在獲取的整個頁面中篩選需要的圖片連接。re模塊主要包含了正則表達式:

  •   re.compile() 可以把正則表達式編譯成一個正則表達式對象.
  •   re.findall() 方法讀取html 中包含 imgre(正則表達式)的數(shù)據(jù).

運行腳本將得到整個頁面中包含圖片的URL地址。 

三、將頁面篩選的數(shù)據(jù)保存到本地
把篩選的圖片地址通過for循環(huán)遍歷并保存到本地,代碼如下:

#coding=utf-8import urllibimport redef getHtml(url):  page = urllib.urlopen(url)  html = page.read()  return htmldef getImg(html):  reg = r'src="(.+?/.jpg)" pic_ext'  imgre = re.compile(reg)  imglist = re.findall(imgre,html)  x = 0  for imgurl in imglist:    urllib.urlretrieve(imgurl,'%s.jpg' % x)    x+=1html = getHtml("http://tieba.baidu.com/p/2460150866")print getImg(html)

這里的核心是用到了urllib.urlretrieve()方法,直接將遠程數(shù)據(jù)下載到本地。
通過一個for循環(huán)對獲取的圖片連接進行遍歷,為了使圖片的文件名看上去更規(guī)范,對其進行重命名,命名規(guī)則通過x變量加1。保存的位置默認為程序的存放目錄。
程序運行完成,將在目錄下看到下載到本地的文件。

結果展示:

以上就是本文的全部內(nèi)容,希望對大家實現(xiàn)Python爬蟲功能有所幫助。

發(fā)表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發(fā)表
主站蜘蛛池模板: 镶黄旗| 当阳市| 白山市| 南皮县| 海口市| 江源县| 辽宁省| 肃南| 海伦市| 合山市| 九台市| 达拉特旗| 六安市| 普陀区| 东乡族自治县| 莱芜市| 荆州市| 法库县| 揭西县| 武强县| 富宁县| 饶阳县| 扶余县| 磴口县| 龙南县| 仪陇县| 北票市| 青浦区| 哈巴河县| 兴化市| 宝应县| 临江市| 类乌齐县| 绥江县| 聊城市| 东方市| 罗定市| 鹤峰县| 乡城县| 吉木萨尔县| 南昌县|