国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python爬蟲之網頁圖片抓取的方法

2020-02-15 22:25:49
字體:
來源:轉載
供稿:網友

一、引入

這段時間一直在學習Python的東西,以前就聽說Python爬蟲多厲害,正好現在學到這里,跟著小甲魚的Python視頻寫了一個爬蟲程序,能實現簡單的網頁圖片下載。

二、代碼

__author__ = "JentZhang"import urllib.requestimport osimport randomimport redef url_open(url):  '''  打開網頁  :param url:  :return:  '''  req = urllib.request.Request(url)  req.add_header('User-Agent',          'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.75 Safari/537.36')  # 應用代理  '''  proxyies = ["111.155.116.237:8123","101.236.23.202:8866","122.114.31.177:808"]  proxy = random.choice(proxyies)  proxy_support = urllib.request.ProxyHandler({"http": proxy})  opener = urllib.request.build_opener(proxy_support)  urllib.request.install_opener(opener)  '''  response = urllib.request.urlopen(url)  html = response.read()  return htmldef save_img(folder, img_addrs):  '''  保存圖片  :param folder: 要保存的文件夾  :param img_addrs: 圖片地址(列表)  :return:  '''  # 創建文件夾用來存放圖片  if not os.path.exists(folder):    os.mkdir(folder)  os.chdir(folder)  for each in img_addrs:    filename = each.split('/')[-1]    try:      with open(filename, 'wb') as f:        img = url_open("http:" + each)        f.write(img)    except urllib.error.HTTPError as e:      # print(e.reason)      pass  print('完畢!')def find_imgs(url):  '''  獲取全部的圖片鏈接  :param url: 連接地址  :return: 圖片地址的列表  '''  html = url_open(url).decode("utf-8")  img_addrs = re.findall(r'src="(.+?/.gif)', html)  return img_addrsdef get_page(url):  '''  獲取當前一共有多少頁的圖片  :param url: 網頁地址  :return:  '''  html = url_open(url).decode('utf-8')  a = html.find("current-comment-page") + 23  b = html.find("]</span>", a)  return html[a:b]def download_mm(url="http://jandan.net/ooxx/", folder="OOXX", pages=1):  '''  主程序(下載圖片)  :param folder:默認存放的文件夾  :param pages: 下載的頁數  :return:  '''  page_num = int(get_page(url))  for i in range(pages):    page_num -= i    page_url = url + "page-" + str(page_num) + "#comments"    img_addrs = find_imgs(page_url)    save_img(folder, img_addrs)if __name__ == "__main__":  download_mm()

三、總結

由于代碼中訪問的網址已經運用了反爬蟲的算法。所以已經爬不到想要的圖片啦,so,就當是記了個爬蟲的筆記吧。僅供學習參考[捂臉]。。。。

最后:我把jpg格式換成gif,還能爬到可憐的一張gif圖:

 

第一張正是反爬蟲機制的一個圖片占位符,完全沒有任何內容

總結

以上所述是小編給大家介紹的Python爬蟲之網頁圖片抓取的方法,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復大家的。在此也非常感謝大家對武林站長站網站的支持!

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 玉树县| 永康市| 保康县| 南宫市| 砀山县| 康定县| 尚义县| 晋江市| 惠水县| 广昌县| 永寿县| 农安县| 北票市| 兴城市| 阿瓦提县| 庆元县| 金坛市| 抚顺市| 鄂托克旗| 龙江县| 吐鲁番市| 辉县市| 怀柔区| 莒南县| 策勒县| 张家口市| 江孜县| 兴化市| 南安市| 漳浦县| 东辽县| 绥棱县| 沧州市| 贡嘎县| 寿阳县| 丰镇市| 阿拉尔市| 梅州市| 嘉义县| 新巴尔虎左旗| 峨眉山市|