国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python中的urllib模塊使用詳解

2019-11-25 17:13:41
字體:
來源:轉載
供稿:網友

urllib模塊提供的上層接口,使我們可以像讀取本地文件一樣讀取www和ftp上的數據。每當使用這個模塊的時候,老是會想起公司產品的客戶端,同事用C++下載Web上的圖片,那種“痛苦”的表情。我以前翻譯過libcurl教程,這是在C/C++環境下比較方便實用的網絡操作庫,相比起libcurl,Python的urllib模塊的使用門檻則低多了。可能有些人又會用效率來批評Python,其實在操作網絡,或者在集群交互的時候, 語言的執行效率絕不是瓶頸。這種情況下,一個比較好的方法是,將python嵌入到C/C++中,讓Python來完成一些不是核心的邏輯處理。又扯遠了,廢話少說,開始urllib之旅吧~~ (前幾天我用這個模塊寫了個蜘蛛,感興趣的同學可以在以前的博客中找到代碼)

先看一個例子,這個例子把Google首頁的html抓取下來并顯示在控制臺上:

# 別驚訝,整個程序確實只用了兩行代碼import urllibprint urllib.urlopen('http://www.google.com').read()urllib.urlopen(url[, data[, proxies]]) :

創建一個表示遠程url的類文件對象,然后像本地文件一樣操作這個類文件對象來獲取遠程數據。參數url表示遠程數據的路徑,一般是網址;參數data表示以post方式提交到url的數據(玩過web的人應該知道提交數據的兩種方式:post與get。如果你不清楚,也不必太在意,一般情況下很少用到這個參數);參數proxies用于設置代理(這里不詳細講怎么使用代理,感興趣的看客可以去翻閱Python手冊urllib模塊)。urlopen返回 一個類文件對象,他提供了如下方法:

  •         read() , readline() , readlines() , fileno() , close() :這些方法的使用方式與文件對象完全一樣;
  •         info():返回一個httplib.HTTPMessage 對象,表示遠程服務器返回的頭信息;
  •         getcode():返回Http狀態碼。如果是http請求,200表示請求成功完成;404表示網址未找到;
  •         geturl():返回請求的url;

下面來擴充一下上面的例子,看官可以運行一下這個例子,加深對urllib的印象:

google = urllib.urlopen('http://www.google.com')print 'http header:/n', google.info()print 'http status:', google.getcode()print 'url:', google.geturl()for line in google: # 就像在操作本地文件  print line,google.close()urllib.urlretrieve(url[, filename[, reporthook[, data]]]):

urlretrieve方法直接將遠程數據下載到本地。參數filename指定了保存到本地的路徑(如果未指定該參數,urllib會生成一個臨時文件來保存數據);參數reporthook是一個回調函數,當連接上服務器、以及相應的數據塊傳輸完畢的時候會觸發該回調。我們可以利用這個回調函 數來顯示當前的下載進度,下面的例子會展示。參數data指post到服務器的數據。該方法返回一個包含兩個元素的元組(filename, headers),filename表示保存到本地的路徑,header表示服務器的響應頭。下面通過例子來演示一下這個方法的使用,這個例子將新浪首頁的html抓取到本地,保存在D:/sina.html文件中,同時顯示下載的進度。

def cbk(a, b, c):  '''回調函數  @a: 已經下載的數據塊  @b: 數據塊的大小  @c: 遠程文件的大小  '''  per = 100.0 * a * b / c  if per > 100:    per = 100  print '%.2f%%' % perurl = 'http://www.sina.com.cn'local = 'd://sina.html'urllib.urlretrieve(url, local, cbk)

上面介紹的兩個方法是urllib中最常用的方法,這些方法在獲取遠程數據的時候,內部會使用URLopener或者 FancyURLOpener類。作為urllib的使用者,我們很少會用到這兩個類,這里我不想多講。如果對urllib的實現感興趣, 或者希望urllib支持更多的協議,可以研究這兩個類。在Python手冊中,urllib的作者還列出了這個模塊的缺陷和不足,感興趣的同學可以打開 Python手冊了解一下。

urllib中還提供了一些輔助方法,用于對url進行編碼、解碼。url中是不能出現一些特殊的符號的,有些符號有特殊的用途。我們知道以get方式提交數據的時候,會在url中添加key=value這樣的字符串,所以在value中是不允許有'=',因此要對其進行編碼;與此同時服務器接收到這些參數的時候,要進行解碼,還原成原始的數據。這個時候,這些輔助方法會很有用:

  •     urllib.quote(string[, safe]):對字符串進行編碼。參數safe指定了不需要編碼的字符;
  •     urllib.unquote(string) :對字符串進行解碼;
  •     urllib.quote_plus(string [ , safe ] ) :與urllib.quote類似,但這個方法用'+'來替換' ‘,而quote用'%20′來代替' ‘
  •     urllib.unquote_plus(string ) :對字符串進行解碼;
  •     urllib.urlencode(query[, doseq]):將dict或者包含兩個元素的元組列表轉換成url參數。例如 字典{‘name': ‘dark-bull', ‘age': 200}將被轉換為”name=dark-bull&age=200″
  •     urllib.pathname2url(path):將本地路徑轉換成url路徑;

    urllib.url2pathname(path):將url路徑轉換成本地路徑;

用一個例子來體驗一下這些方法吧~~:

data = 'name = ~a+3'data1 = urllib.quote(data)print data1 # result: name%20%3D%20%7Ea%2B3print urllib.unquote(data1) # result: name = ~a+3data2 = urllib.quote_plus(data)print data2 # result: name+%3D+%7Ea%2B3print urllib.unquote_plus(data2)  # result: name = ~a+3data3 = urllib.urlencode({ 'name': 'dark-bull', 'age': 200 })print data3 # result: age=200&name=dark-bulldata4 = urllib.pathname2url(r'd:/a/b/c/23.php')print data4 # result: ///D|/a/b/c/23.phpprint urllib.url2pathname(data4)  # result: D:/a/b/c/23.php

urllib模塊的基本使用,就這么簡單。oh~~yeah~~又一個模塊寫完了,想想,我已經寫了將近30個模塊了,有時間我要好好整理一下@@@@

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 阳山县| 安平县| 民县| 延安市| 保德县| 叙永县| 台东县| 博野县| 象山县| 普安县| 贵南县| 咸丰县| 基隆市| 全南县| 望都县| 湾仔区| 渑池县| 固镇县| 山东省| 临海市| 遂溪县| 贡觉县| 剑河县| 巫山县| 天等县| 策勒县| 独山县| 兰西县| 庆元县| 凤庆县| 龙里县| 班戈县| 兴仁县| 宁化县| 毕节市| 池州市| 中西区| 公主岭市| 海晏县| 克东县| 浙江省|