1、PRoxy 的設(shè)置urllib2 默認(rèn)會使用環(huán)境變量 http_proxy 來設(shè)置 HTTP Proxy。如果想在程序中明確控制 Proxy,而不受環(huán)境變量的影響,可以使用下面的方式import urllib2enable_proxy = Trueproxy_handler = urllib2.ProxyHandler({"http" : 'http://some-proxy.com:8080'})null_proxy_handler = urllib2.ProxyHandler({})if enable_proxy: opener = urllib2.build_opener(proxy_handler)else: opener = urllib2.build_opener(null_proxy_handler) urllib2.install_opener(opener) 這里要注意的一個細(xì)節(jié),使用 urllib2.install_opener() 會設(shè)置 urllib2 的全局 opener。這樣后面的使用會很方便,但不能做更細(xì)粒度的控制,比如想在程序中使用兩個不同的 Proxy 設(shè)置等。比較好的做法是不使用 install_opener 去更改全局的設(shè)置,而只是直接調(diào)用 opener 的 open 方法代替全局的 urlopen 方法。 2、Timeout 設(shè)置在老版本中,urllib2 的 API 并沒有暴露 Timeout 的設(shè)置,要設(shè)置 Timeout 值,只能更改 Socket 的全局 Timeout 值。 import urllib2import socketsocket.setdefaulttimeout(10) # 10 秒鐘后超時urllib2.socket.setdefaulttimeout(10) # 另一種方式在新的 Python 2.6 版本中,超時可以通過 urllib2.urlopen() 的 timeout 參數(shù)直接設(shè)置。 import urllib2response = urllib2.urlopen('http://www.google.com', timeout=10)3、在 HTTP Request 中加入特定的 Header要加入 Header,需要使用 Request 對象: import urllib2request = urllib2.Request(uri)request.add_header('User-Agent', 'fake-client')response = urllib2.urlopen(request) 對有些 header 要特別留意,Server 端會針對這些 header 做檢查User-Agent 有些 Server 或 Proxy 會檢查該值,用來判斷是否是瀏覽器發(fā)起的 RequestContent-Type 在使用 REST 接口時,Server 會檢查該值,用來確定 HTTP Body 中的內(nèi)容該怎樣解析。常見的取值有: application/xml :在 XML RPC,如 RESTful/SOAP 調(diào)用時使用application/json :在 JSON RPC 調(diào)用時使用application/x-www-form-urlencoded :瀏覽器提交 Web 表單時使用 在使用 RPC 調(diào)用 Server 提供的 RESTful 或 SOAP 服務(wù)時, Content-Type 設(shè)置錯誤會導(dǎo)致 Server 拒絕服務(wù)。 4、Redirecturllib2 默認(rèn)情況下會針對 3xx HTTP 返回碼自動進(jìn)行 Redirect 動作,無需人工配置。要檢測是否發(fā)生了 Redirect 動作,只要檢查一下 Response 的 URL 和 Request 的 URL 是否一致就可以了。 import urllib2response = urllib2.urlopen('http://www.google.cn')redirected = response.geturl() == 'http://www.google.cn' 如果不想自動 Redirect,除了使用更低層次的 httplib 庫之外,還可以使用自定義的 HTTPRedirectHandler 類。 import urllib2class RedirectHandler(urllib2.HTTPRedirectHandler): def http_error_301(self, req, fp, code, msg, headers): pass def http_error_302(self, req, fp, code, msg, headers): passopener = urllib2.build_opener(RedirectHandler)opener.open('http://www.google.cn') 5、Cookieurllib2 對 Cookie 的處理也是自動的。如果需要得到某個 Cookie 項的值,可以這么做: import urllib2import cookielibcookie = cookielib.CookieJar()opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))response = opener.open('http://www.google.com')for item in cookie: if item.name == 'some_cookie_item_name': print item.value 6、使用 HTTP 的 PUT 和 DELETE 方法urllib2 只支持 HTTP 的 GET 和 POST 方法,如果要使用 HTTP PUT 和 DELETE,只能使用比較低層的 httplib 庫。雖然如此,我們還是能通過下面的方式,使 urllib2 能夠發(fā)出 HTTP PUT 或 DELETE 的包: import urllib2request = urllib2.Request(uri, data=data)request.get_method = lambda: 'PUT' # or 'DELETE'response = urllib2.urlopen(request) 這種做法雖然屬于 Hack 的方式,但實(shí)際使用起來也沒什么問題。 7、得到 HTTP 的返回碼對于 200 OK 來說,只要使用 urlopen 返回的 response 對象的 getcode() 方法就可以得到 HTTP 的返回碼。但對其它返回碼來說,urlopen 會拋出異常。這時候,就要檢查異常對象的 code 屬性了: import urllib2try: response = urllib2.urlopen('http://restrict.web.com')except urllib2.HTTPError, e: print e.code 8、Debug Log使用 urllib2 時,可以通過下面的方法把 Debug Log 打開,這樣收發(fā)包的內(nèi)容就會在屏幕上打印出來,方便我們調(diào)試,在一定程度上可以省去抓包的工作。 import urllib2httpHandler = urllib2.HTTPHandler(debuglevel=1)httpsHandler = urllib2.HTTPSHandler(debuglevel=1)opener = urllib2.build_opener(httpHandler, httpsHandler)urllib2.install_opener(opener)response = urllib2.urlopen('http://www.google.com')
新聞熱點(diǎn)
疑難解答