国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python爬蟲設置代理IP的方法(爬蟲技巧)

2020-01-04 15:46:30
字體:
來源:轉載
供稿:網友

在學習Python爬蟲的時候,經常會遇見所要爬取的網站采取了反爬取技術,高強度、高效率地爬取網頁信息常常會給網站服務器帶來巨大壓力,所以同一個IP反復爬取同一個網頁,就很可能被封,這里講述一個爬蟲技巧,設置代理IP。

(一)配置環境

  • 安裝requests庫
  • 安裝bs4庫
  • 安裝lxml庫

(二)代碼展示

# IP地址取自國內髙匿代理IP網站:http://www.xicidaili.com/nn/# 僅僅爬取首頁IP地址就足夠一般使用from bs4 import BeautifulSoupimport requestsimport randomdef get_ip_list(url, headers):  web_data = requests.get(url, headers=headers)  soup = BeautifulSoup(web_data.text, 'lxml')  ips = soup.find_all('tr')  ip_list = []  for i in range(1, len(ips)):    ip_info = ips[i]    tds = ip_info.find_all('td')    ip_list.append(tds[1].text + ':' + tds[2].text)  return ip_listdef get_random_ip(ip_list):  proxy_list = []  for ip in ip_list:    proxy_list.append('http://' + ip)  proxy_ip = random.choice(proxy_list)  proxies = {'http': proxy_ip}  return proxiesif __name__ == '__main__':  url = 'http://www.xicidaili.com/nn/'  headers = {    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'  }  ip_list = get_ip_list(url, headers=headers)  proxies = get_random_ip(ip_list)  print(proxies)函數get_ip_list(url, headers)傳入url和headers,最后返回一個IP列表,列表的元素類似42.84.226.65:8888格式,這個列表包括國內髙匿代理IP網站首頁所有IP地址和端口。 

函數get_random_ip(ip_list)傳入第一個函數得到的列表,返回一個隨機的proxies,這個proxies可以傳入到requests的get方法中,這樣就可以做到每次運行都使用不同的IP訪問被爬取的網站,有效地避免了真實IP被封的風險。proxies的格式是一個字典:{‘http': ‘http://42.84.226.65:8888‘}。

(三)代理IP的使用

運行上面的代碼會得到一個隨機的proxies,把它直接傳入requests的get方法中即可。

web_data = requests.get(url, headers=headers, proxies=proxies)

總結

以上所述是小編給大家介紹的Python爬蟲設置代理IP的方法(爬蟲技巧),希望對大家有所幫助,如果大家有任何疑問歡迎給我留言,小編會及時回復大家的!


注:相關教程知識閱讀請移步到python教程頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 天等县| 卓尼县| 江安县| 额尔古纳市| 古田县| 华坪县| 甘孜县| 南安市| 六安市| 大名县| 永城市| 临夏市| 绍兴市| 资阳市| 曲阳县| 武山县| 九台市| 桃江县| 兴义市| 兴宁市| 晴隆县| 江西省| 西充县| 肃北| 和政县| 光泽县| 彰化市| 宣汉县| 沐川县| 大英县| 岐山县| 黄浦区| 淳化县| 澄迈县| 金堂县| 信阳市| 镇康县| 康保县| 灵丘县| 威海市| 南充市|