国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

簡單實現(xiàn)python爬蟲功能

2020-01-04 17:52:43
字體:
供稿:網(wǎng)友
這篇文章主要介紹了python實現(xiàn)簡單爬蟲功能的相關(guān)資料,感興趣的小伙伴們可以參考一下
 

       在我們?nèi)粘I暇W(wǎng)瀏覽網(wǎng)頁的時候,經(jīng)常會看到一些好看的圖片,我們就希望把這些圖片保存下載,或者用戶用來做桌面壁紙,或者用來做設(shè)計的素材。

  我們最常規(guī)的做法就是通過鼠標右鍵,選擇另存為。但有些圖片鼠標右鍵的時候并沒有另存為選項,還有辦法就通過就是通過截圖工具截取下來,但這樣就降低圖片的清晰度。好吧~!其實你很厲害的,右鍵查看頁面源代碼。

  我們可以通過python 來實現(xiàn)這樣一個簡單的爬蟲功能,把我們想要的代碼爬取到本地。下面就看看如何使用python來實現(xiàn)這樣一個功能。

一、獲取整個頁面數(shù)據(jù) 

首先我們可以先獲取要下載圖片的整個頁面信息。

getjpg.py

#coding=utf-8import urllibdef getHtml(url):  page = urllib.urlopen(url)  html = page.read()  return htmlhtml = getHtml("http://tieba.baidu.com/p/2738151262")print html

  Urllib模塊提供了讀取web頁面數(shù)據(jù)的接口,我們可以像讀取本地文件一樣讀取www和ftp上的數(shù)據(jù)。首先,我們定義了一個getHtml()函數(shù):

  urllib.urlopen()方法用于打開一個URL地址。

  read()方法用于讀取URL上的數(shù)據(jù),向getHtml()函數(shù)傳遞一個網(wǎng)址,并把整個頁面下載下來。執(zhí)行程序就會把整個網(wǎng)頁打印輸出。

二、篩選頁面中想要的數(shù)據(jù)

Python 提供了非常強大的正則表達式,我們需要先要了解一點python 正則表達式的知識才行。

假如我們百度貼吧找到了幾張漂亮的壁紙,通過到前段查看工具。找到了圖片的地址,如:src=”http://imgsrc.baidu.com/forum......jpg”pic_ext=”jpeg”

簡單實現(xiàn)python爬蟲功能

修改代碼如下:

import reimport urllibdef getHtml(url):  page = urllib.urlopen(url)  html = page.read()  return htmldef getImg(html):  reg = r'src="(.+?/.jpg)" pic_ext'  imgre = re.compile(reg)  imglist = re.findall(imgre,html)  return imglist     html = getHtml("http://tieba.baidu.com/p/2460150866")print getImg(html)

我們又創(chuàng)建了getImg()函數(shù),用于在獲取的整個頁面中篩選需要的圖片連接。re模塊主要包含了正則表達式:

  •   re.compile() 可以把正則表達式編譯成一個正則表達式對象.
  •   re.findall() 方法讀取html 中包含 imgre(正則表達式)的數(shù)據(jù).

運行腳本將得到整個頁面中包含圖片的URL地址。 

三、將頁面篩選的數(shù)據(jù)保存到本地
把篩選的圖片地址通過for循環(huán)遍歷并保存到本地,代碼如下:

#coding=utf-8import urllibimport redef getHtml(url):  page = urllib.urlopen(url)  html = page.read()  return htmldef getImg(html):  reg = r'src="(.+?/.jpg)" pic_ext'  imgre = re.compile(reg)  imglist = re.findall(imgre,html)  x = 0  for imgurl in imglist:    urllib.urlretrieve(imgurl,'%s.jpg' % x)    x+=1html = getHtml("http://tieba.baidu.com/p/2460150866")print getImg(html)

這里的核心是用到了urllib.urlretrieve()方法,直接將遠程數(shù)據(jù)下載到本地。
通過一個for循環(huán)對獲取的圖片連接進行遍歷,為了使圖片的文件名看上去更規(guī)范,對其進行重命名,命名規(guī)則通過x變量加1。保存的位置默認為程序的存放目錄。
程序運行完成,將在目錄下看到下載到本地的文件。

結(jié)果展示:

簡單實現(xiàn)python爬蟲功能

以上就是本文的全部內(nèi)容,希望對大家實現(xiàn)Python爬蟲功能有所幫助。


發(fā)表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發(fā)表
主站蜘蛛池模板: 德保县| 高清| 徐水县| 吕梁市| 麻阳| 商丘市| 图们市| 来安县| 海原县| 化德县| 九台市| 蓬安县| 通海县| 施甸县| 蓬莱市| 丹阳市| 繁峙县| 馆陶县| 噶尔县| 武夷山市| 涟水县| 通道| 东宁县| 岚皋县| 赤城县| 冕宁县| 蕲春县| 铁岭市| 峨眉山市| 双桥区| 高雄县| 牡丹江市| 咸阳市| 南汇区| 邳州市| 金塔县| 依安县| 依安县| 准格尔旗| 台州市| 和林格尔县|