国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 學院 > 開發(fā)設計 > 正文

lxml解析html時,檢驗XPath

2019-11-14 09:10:14
字體:
來源:轉載
供稿:網(wǎng)友

這兩天在研究Scrapy,在遇到用Xpath提出時,需要有Chrome的XPath helper,但老是出現(xiàn)錯誤。廢話少說,還是先把測試網(wǎng)頁保存到本地,逐步的測試提取。

測試文本text.html

<!DOCTYPE html><html lang="en"><head> <meta charset="UTF-8"> <title>測試-常規(guī)方法</title></head><body><div id="content"> <ul id="useful"> <li>這是第一條信息</li> <li>這是第二條信息</li> <li>這是第三條信息</li> </ul> <ul id="useless"> <li>不需要的信息1</li> <li>不需要的信息2</li> <li>不需要的信息3</li> </ul> <div id="url"> <a >極客學院</a> <a title="極客學院課程庫">點我打開課程庫</a> </div></div><div id="test-0">大家好!</div><div id="test-1">需要的內容1</div><div id="test-2">需要的內容2</div><div id="testfault">需要的內容3</div><div id="tiger"> 我左青龍, <span id="tiger2"> 右白虎, <ul> 上朱雀, <li>下玄武。</li> </ul> 老牛在當中, </span> 龍頭在胸口。</div><div id="test-3">美女, <font color=red>你的微信是多少?</font></div></body></html>

使用XPath對相關內容的提取

# -*- coding: utf-8 -*-from lxml import etreef = open('text.html', 'r',encoding="utf-8")html = f.read()#PRint (html)f.close()selector = etree.HTML(html)

selector.xpath提取后為list

#提取單個文本content = selector.xpath('//div[@id="test-0"]/text()')print (content)

[‘大家好!’]

#提取多個文本content = selector.xpath('//ul[@id="useful"]/li/text()')print (content)for each in content: print (each)

結果為: 這是第一條信息 這是第二條信息 這是第三條信息

#提取屬性link = selector.xpath('//a/@href')for each in link: print (each)

結果為: http://jikexueyuan.com http://jikexueyuan.com/sourse/

#提取titletitle = selector.xpath('//a/@title')print (title[0])

結果為: 極客學院課程庫

# 以相同的字符開頭 starts-with(@屬性名稱,屬性字符相同部分)content = selector.xpath('//div[starts-with(@id,"test")]/text()')for each in content: print (each)

結果為: 大家好! 需要的內容1 需要的內容2 需要的內容3 美女,

#標簽套標簽,取出所有的標簽data = selector.xpath('//div[@id="test-3"]')[0]info = data.xpath('string(.)')info=str(info)# info為<class 'lxml.etree._ElementUnicodeResult'>,轉為字符content=" ".join(info.split())print (content)data = selector.xpath('//div[@id="tiger"]')[0]info = data.xpath('string(.)')info=str(info)# info為<class 'lxml.etree._ElementUnicodeResult'>,轉為字符content=" ".join(info.split())print (content)

結果為: 美女, 你的微信是多少? 我左青龍, 右白虎, 上朱雀, 下玄武。 老牛在當中, 龍頭在胸口。

注:這里我將list轉為str。網(wǎng)上有許多其他方法加extract()我嘗試后,發(fā)現(xiàn)均出錯。 另外,發(fā)現(xiàn)網(wǎng)上的代碼有問題。

data = selector.xpath('//div[@id="test3"]')info = data.xpath('string(.)').extract()[0]這樣,就可以把“我左青龍,右白虎,上朱雀,下玄武。老牛在當中,龍頭在胸口”整個句子提取出來,賦值給info變量。

在IDE中直接測試

from lxml import etreetext=""" <div class="bd doulist-subject"> <div class="source"> 來自:豆瓣讀書 </div> <div class="post"> <a target="_blank"> <img width="100" src="https://img1.doubanio.com/lpic/s8869768.jpg"> </a> </div> <div class="title"> <a target="_blank"> 萬物生光輝 </a> </div> <div class="rating"> <span class="allstar50"></span> <span class="rating_nums">9.4</span> <span>(738人評價)</span> </div> <div class="abstract"> " 作者: [英] 吉米·哈利 <br> " 出版社: 中國城市出版社 <br> " 出版年: 2012-3 " </div> </div> """selector = etree.HTML(text)title = selector.xpath('//div[@class="title"]/a/text()')title=title[0]title=title.replace(" ","").replace("http://n","").replace("http://r","")title=title.strip()print (title)rate = selector.xpath('//span[@class="rating_nums"]/text()')rate=rate[0]rate=rate.replace(" ","").replace("http://n","").replace("http://r","")print (rate)author = selector.xpath('//div[@class="abstract"]/text()')author=author[0]author=author.replace(" ","").replace("http://n","").replace("http://r","").replace('"',"")author=author.strip()print (author)

參考如下網(wǎng)頁,非常感謝: http://blog.csdn.net/betabin/article/details/24392369 http://blog.csdn.net/skyeyesxy/article/details/50838003 http://blog.chinaunix.net/uid-13869856-id-5747417.html https://segmentfault.com/q/1010000006053119/a-1020000006053611


發(fā)表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發(fā)表
主站蜘蛛池模板: 资溪县| 贵南县| 泌阳县| 鄂伦春自治旗| 安泽县| 共和县| 洱源县| 大连市| 盐山县| 三亚市| 砀山县| 三河市| 崇州市| 衡南县| 奇台县| 文山县| 钟祥市| 自治县| 民县| 封开县| 保靖县| 吴桥县| 凤翔县| 新绛县| 凌云县| 南昌市| 昌吉市| 高碑店市| 政和县| 六枝特区| 徐州市| 大同市| 沁源县| 融水| 当雄县| 逊克县| 永嘉县| 英山县| 新化县| 黑河市| 怀柔区|