国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

零基礎(chǔ)寫python爬蟲之使用urllib2組件抓取網(wǎng)頁內(nèi)容

2019-11-25 18:07:08
字體:
供稿:網(wǎng)友

版本號:Python2.7.5,Python3改動較大,各位另尋教程。

所謂網(wǎng)頁抓取,就是把URL地址中指定的網(wǎng)絡(luò)資源從網(wǎng)絡(luò)流中讀取出來,保存到本地。 
類似于使用程序模擬IE瀏覽器的功能,把URL作為HTTP請求的內(nèi)容發(fā)送到服務(wù)器端, 然后讀取服務(wù)器端的響應(yīng)資源。

在Python中,我們使用urllib2這個組件來抓取網(wǎng)頁。
urllib2是Python的一個獲取URLs(Uniform Resource Locators)的組件。

它以urlopen函數(shù)的形式提供了一個非常簡單的接口。

最簡單的urllib2的應(yīng)用代碼只需要四行。

我們新建一個文件urllib2_test01.py來感受一下urllib2的作用:

import urllib2
response = urllib2.urlopen('http://www.baidu.com/')
html = response.read()
print html


按下F5可以看到運行的結(jié)果:


我們可以打開百度主頁,右擊,選擇查看源代碼(火狐OR谷歌瀏覽器均可),會發(fā)現(xiàn)也是完全一樣的內(nèi)容。

也就是說,上面這四行代碼將我們訪問百度時瀏覽器收到的代碼們?nèi)看蛴×顺鰜怼?/p>

這就是一個最簡單的urllib2的例子。

除了"http:",URL同樣可以使用"ftp:","file:"等等來替代。

HTTP是基于請求和應(yīng)答機制的:

客戶端提出請求,服務(wù)端提供應(yīng)答。

urllib2用一個Request對象來映射你提出的HTTP請求。

在它最簡單的使用形式中你將用你要請求的地址創(chuàng)建一個Request對象,

通過調(diào)用urlopen并傳入Request對象,將返回一個相關(guān)請求response對象,

這個應(yīng)答對象如同一個文件對象,所以你可以在Response中調(diào)用.read()。

我們新建一個文件urllib2_test02.py來感受一下:

import urllib2  
req = urllib2.Request('http://www.baidu.com') 
response = urllib2.urlopen(req) 
the_page = response.read() 
print the_page

可以看到輸出的內(nèi)容和test01是一樣的。

urllib2使用相同的接口處理所有的URL頭。例如你可以像下面那樣創(chuàng)建一個ftp請求。

req = urllib2.Request('ftp://example.com/')

在HTTP請求時,允許你做額外的兩件事。

1.發(fā)送data表單數(shù)據(jù)

這個內(nèi)容相信做過Web端的都不會陌生,

有時候你希望發(fā)送一些數(shù)據(jù)到URL(通常URL與CGI[通用網(wǎng)關(guān)接口]腳本,或其他WEB應(yīng)用程序掛接)。

在HTTP中,這個經(jīng)常使用熟知的POST請求發(fā)送。

這個通常在你提交一個HTML表單時由你的瀏覽器來做。

并不是所有的POSTs都來源于表單,你能夠使用POST提交任意的數(shù)據(jù)到你自己的程序。

一般的HTML表單,data需要編碼成標準形式。然后做為data參數(shù)傳到Request對象。

編碼工作使用urllib的函數(shù)而非urllib2。

我們新建一個文件urllib2_test03.py來感受一下:

import urllib  
import urllib2 
url = 'http://www.someserver.com/register.cgi' 
values = {'name' : 'WHY', 
          'location' : 'SDU', 
          'language' : 'Python' } 
data = urllib.urlencode(values) # 編碼工作
req = urllib2.Request(url, data)  # 發(fā)送請求同時傳data表單
response = urllib2.urlopen(req)  #接受反饋的信息
the_page = response.read()  #讀取反饋的內(nèi)容

如果沒有傳送data參數(shù),urllib2使用GET方式的請求。

GET和POST請求的不同之處是POST請求通常有"副作用",

它們會由于某種途徑改變系統(tǒng)狀態(tài)(例如提交成堆垃圾到你的門口)。

Data同樣可以通過在Get請求的URL本身上面編碼來傳送。

import urllib2  
import urllib
data = {}
data['name'] = 'WHY' 
data['location'] = 'SDU' 
data['language'] = 'Python'
url_values = urllib.urlencode(data) 
print url_values
name=Somebody+Here&language=Python&location=Northampton 
url = 'http://www.example.com/example.cgi' 
full_url = url + '?' + url_values
data = urllib2.open(full_url)

這樣就實現(xiàn)了Data數(shù)據(jù)的Get傳送。

2.設(shè)置Headers到http請求

有一些站點不喜歡被程序(非人為訪問)訪問,或者發(fā)送不同版本的內(nèi)容到不同的瀏覽器。

默認的urllib2把自己作為“Python-urllib/x.y”(x和y是Python主版本和次版本號,例如Python-urllib/2.7),

這個身份可能會讓站點迷惑,或者干脆不工作。

瀏覽器確認自己身份是通過User-Agent頭,當你創(chuàng)建了一個請求對象,你可以給他一個包含頭數(shù)據(jù)的字典。

下面的例子發(fā)送跟上面一樣的內(nèi)容,但把自身模擬成Internet Explorer。

(多謝大家的提醒,現(xiàn)在這個Demo已經(jīng)不可用了,不過原理還是那樣的)。

import urllib  
import urllib2 
url = 'http://www.someserver.com/cgi-bin/register.cgi'
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' 
values = {'name' : 'WHY', 
          'location' : 'SDU', 
          'language' : 'Python' } 
headers = { 'User-Agent' : user_agent } 
data = urllib.urlencode(values) 
req = urllib2.Request(url, data, headers) 
response = urllib2.urlopen(req) 
the_page = response.read() 

以上就是python利用urllib2通過指定的URL抓取網(wǎng)頁內(nèi)容的全部內(nèi)容,非常簡單吧,希望對大家能有所幫助

發(fā)表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發(fā)表
主站蜘蛛池模板: 闽清县| 大埔区| 和龙市| 平顶山市| 绥化市| 浏阳市| 武陟县| 城口县| 仙桃市| 华容县| 宜兰市| 磐石市| 神农架林区| 土默特右旗| 广昌县| 南阳市| 四川省| 德安县| 分宜县| 泾阳县| 临武县| 靖远县| 郴州市| 金堂县| 台南市| 呼图壁县| 合水县| 云南省| 玉屏| 肇州县| 屏南县| 台山市| 遂平县| 仪陇县| 松原市| 临夏县| 海城市| 贺州市| 银川市| 涿鹿县| 建瓯市|