国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python3實現爬取簡書首頁文章標題和文章鏈接的方法【測試可用】

2020-01-04 13:51:45
字體:
來源:轉載
供稿:網友

本文實例講述了Python3實現爬取簡書首頁文章標題和文章鏈接的方法。分享給大家供大家參考,具體如下:

from urllib import requestfrom bs4 import BeautifulSoup #Beautiful Soup是一個可以從HTML或XML文件中提取結構化數據的Python庫#構造頭文件,模擬瀏覽器訪問url="http://www.jianshu.com"headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}page = request.Request(url,headers=headers)page_info = request.urlopen(page).read().decode('utf-8')#打開Url,獲取HttpResponse返回對象并讀取其ResposneBody# 將獲取到的內容轉換成BeautifulSoup格式,并將html.parser作為解析器soup = BeautifulSoup(page_info, 'html.parser')# 以格式化的形式打印html#print(soup.prettify())titles = soup.find_all('a', 'title')# 查找所有a標簽中class='title'的語句'''''# 打印查找到的每一個a標簽的string和文章鏈接  for title in titles:    print(title.string)    print("http://www.jianshu.com" + title.get('href'))'''#open()是讀寫文件的函數,with語句會自動close()已打開文件with open(r"D:/articles.txt","w") as file:    #在磁盤以只寫的方式打開/創建一個名為 articles 的txt文件  for title in titles:    file.write(title.string+'/n')    file.write("http://www.jianshu.com" + title.get('href')+'/n/n')

本機測試運行結果如下:

Python3,爬取,簡書

希望本文所述對大家Python程序設計有所幫助。


注:相關教程知識閱讀請移步到python教程頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 德庆县| 沙雅县| 南通市| 喀喇| 广平县| 万州区| 安丘市| 岐山县| 曲阳县| 额济纳旗| 梨树县| 吉木乃县| 介休市| 关岭| 界首市| 从江县| 宁海县| 榆树市| 石河子市| 中山市| 新巴尔虎左旗| 沾益县| 罗田县| 马关县| 延安市| 布拖县| 治多县| 班玛县| 临武县| 麦盖提县| 石嘴山市| 遵义县| 壶关县| 荃湾区| 梅州市| 阿克陶县| 成安县| 额济纳旗| 宁海县| 佛学| 苏州市|