国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

詳細(xì)解讀Python中解析XML數(shù)據(jù)的方法

2019-11-25 17:03:55
字體:
供稿:網(wǎng)友

Python可以使用 xml.etree.ElementTree 模塊從簡單的XML文檔中提取數(shù)據(jù)。 為了演示,假設(shè)你想解析Planet Python上的RSS源。下面是相應(yīng)的代碼:

from urllib.request import urlopenfrom xml.etree.ElementTree import parse# Download the RSS feed and parse itu = urlopen('http://planet.python.org/rss20.xml')doc = parse(u)# Extract and output tags of interestfor item in doc.iterfind('channel/item'):  title = item.findtext('title')  date = item.findtext('pubDate')  link = item.findtext('link')  print(title)  print(date)  print(link)  print()

運(yùn)行上面的代碼,輸出結(jié)果類似這樣:

Steve Holden: Python for Data AnalysisMon, 19 Nov 2012 02:13:51 +0000http://holdenweb.blogspot.com/2012/11/python-for-data-analysis.htmlVasudev Ram: The Python Data model (for v2 and v3)Sun, 18 Nov 2012 22:06:47 +0000http://jugad2.blogspot.com/2012/11/the-python-data-model.htmlPython Diary: Been playing around with Object DatabasesSun, 18 Nov 2012 20:40:29 +0000http://www.pythondiary.com/blog/Nov.18,2012/been-...-object-databases.htmlVasudev Ram: Wakari, Scientific Python in the cloudSun, 18 Nov 2012 20:19:41 +0000http://jugad2.blogspot.com/2012/11/wakari-scientific-python-in-cloud.htmlJesse Jiryu Davis: Toro: synchronization primitives for Tornado coroutinesSun, 18 Nov 2012 20:17:49 +0000http://feedproxy.google.com/~r/EmptysquarePython/~3/_DOZT2Kd0hQ/

很顯然,如果你想做進(jìn)一步的處理,你需要替換 print() 語句來完成其他有趣的事。

在很多應(yīng)用程序中處理XML編碼格式的數(shù)據(jù)是很常見的。 不僅因?yàn)閄ML在Internet上面已經(jīng)被廣泛應(yīng)用于數(shù)據(jù)交換, 同時(shí)它也是一種存儲(chǔ)應(yīng)用程序數(shù)據(jù)的常用格式(比如字處理,音樂庫等)。 接下來的討論會(huì)先假定讀者已經(jīng)對(duì)XML基礎(chǔ)比較熟悉了。

在很多情況下,當(dāng)使用XML來僅僅存儲(chǔ)數(shù)據(jù)的時(shí)候,對(duì)應(yīng)的文檔結(jié)構(gòu)非常緊湊并且直觀。 例如,上面例子中的RSS訂閱源類似于下面的格式:

<?xml version="1.0"?><rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/">  <channel>    <title>Planet Python</title>    <link>http://planet.python.org/</link>    <language>en</language>    <description>Planet Python - http://planet.python.org/</description>    <item>      <title>Steve Holden: Python for Data Analysis</title>      <guid>http://holdenweb.blogspot.com/...-data-analysis.html</guid>      <link>http://holdenweb.blogspot.com/...-data-analysis.html</link>      <description>...</description>      <pubDate>Mon, 19 Nov 2012 02:13:51 +0000</pubDate>    </item>    <item>      <title>Vasudev Ram: The Python Data model (for v2 and v3)</title>      <guid>http://jugad2.blogspot.com/...-data-model.html</guid>      <link>http://jugad2.blogspot.com/...-data-model.html</link>      <description>...</description>      <pubDate>Sun, 18 Nov 2012 22:06:47 +0000</pubDate>    </item>    <item>      <title>Python Diary: Been playing around with Object Databases</title>      <guid>http://www.pythondiary.com/...-object-databases.html</guid>      <link>http://www.pythondiary.com/...-object-databases.html</link>      <description>...</description>      <pubDate>Sun, 18 Nov 2012 20:40:29 +0000</pubDate>    </item>    ...  </channel></rss>

xml.etree.ElementTree.parse() 函數(shù)解析整個(gè)XML文檔并將其轉(zhuǎn)換成一個(gè)文檔對(duì)象。 然后,你就能使用 find() 、iterfind() 和 findtext() 等方法來搜索特定的XML元素了。 這些函數(shù)的參數(shù)就是某個(gè)指定的標(biāo)簽名,例如 channel/item 或 title 。

每次指定某個(gè)標(biāo)簽時(shí),你需要遍歷整個(gè)文檔結(jié)構(gòu)。每次搜索操作會(huì)從一個(gè)起始元素開始進(jìn)行。 同樣,每次操作所指定的標(biāo)簽名也是起始元素的相對(duì)路徑。 例如,執(zhí)行 doc.iterfind('channel/item') 來搜索所有在 channel 元素下面的 item 元素。 doc 代表文檔的最頂層(也就是第一級(jí)的 rss 元素)。 然后接下來的調(diào)用 item.findtext() 會(huì)從已找到的 item 元素位置開始搜索。

ElementTree 模塊中的每個(gè)元素有一些重要的屬性和方法,在解析的時(shí)候非常有用。 tag 屬性包含了標(biāo)簽的名字,text 屬性包含了內(nèi)部的文本,而 get() 方法能獲取屬性值。例如:

>>> doc<xml.etree.ElementTree.ElementTree object at 0x101339510>>>> e = doc.find('channel/title')>>> e<Element 'title' at 0x10135b310>>>> e.tag'title'>>> e.text'Planet Python'>>> e.get('some_attribute')>>>

有一點(diǎn)要強(qiáng)調(diào)的是 xml.etree.ElementTree 并不是XML解析的唯一方法。 對(duì)于更高級(jí)的應(yīng)用程序,你需要考慮使用 lxml 。 它使用了和ElementTree同樣的編程接口,因此上面的例子同樣也適用于lxml。 你只需要將剛開始的import語句換成 from lxml.etree import parse 就行了。 lxml 完全遵循XML標(biāo)準(zhǔn),并且速度也非常快,同時(shí)還支持驗(yàn)證,XSLT,和XPath等特性。

增量式解析大型XML文件
任何時(shí)候只要你遇到增量式的數(shù)據(jù)處理時(shí),第一時(shí)間就應(yīng)該想到迭代器和生成器。 下面是一個(gè)很簡單的函數(shù),只使用很少的內(nèi)存就能增量式的處理一個(gè)大型XML文件:

from xml.etree.ElementTree import iterparsedef parse_and_remove(filename, path):  path_parts = path.split('/')  doc = iterparse(filename, ('start', 'end'))  # Skip the root element  next(doc)  tag_stack = []  elem_stack = []  for event, elem in doc:    if event == 'start':      tag_stack.append(elem.tag)      elem_stack.append(elem)    elif event == 'end':      if tag_stack == path_parts:        yield elem        elem_stack[-2].remove(elem)      try:        tag_stack.pop()        elem_stack.pop()      except IndexError:        pass

為了測(cè)試這個(gè)函數(shù),你需要先有一個(gè)大型的XML文件。 通常你可以在政府網(wǎng)站或公共數(shù)據(jù)網(wǎng)站上找到這樣的文件。 例如,你可以下載XML格式的芝加哥城市道路坑洼數(shù)據(jù)庫。 在寫這本書的時(shí)候,下載文件已經(jīng)包含超過100,000行數(shù)據(jù),編碼格式類似于下面這樣:

假設(shè)你想寫一個(gè)腳本來按照坑洼報(bào)告數(shù)量排列郵編號(hào)碼。你可以像這樣做:

from xml.etree.ElementTree import parsefrom collections import Counterpotholes_by_zip = Counter()doc = parse('potholes.xml')for pothole in doc.iterfind('row/row'):  potholes_by_zip[pothole.findtext('zip')] += 1for zipcode, num in potholes_by_zip.most_common():  print(zipcode, num)

這個(gè)腳本唯一的問題是它會(huì)先將整個(gè)XML文件加載到內(nèi)存中然后解析。 在我的機(jī)器上,為了運(yùn)行這個(gè)程序需要用到450MB左右的內(nèi)存空間。 如果使用如下代碼,程序只需要修改一點(diǎn)點(diǎn):

from collections import Counterpotholes_by_zip = Counter()data = parse_and_remove('potholes.xml', 'row/row')for pothole in data:  potholes_by_zip[pothole.findtext('zip')] += 1for zipcode, num in potholes_by_zip.most_common():  print(zipcode, num)

結(jié)果是:這個(gè)版本的代碼運(yùn)行時(shí)只需要7MB的內(nèi)存

主站蜘蛛池模板: 临湘市| 寿阳县| 黔东| 东台市| 涪陵区| 突泉县| 乃东县| 拉孜县| 莒南县| 穆棱市| 天祝| 徐水县| 普陀区| 富顺县| 崇州市| 博爱县| 南康市| 保德县| 定陶县| 景泰县| 伽师县| 安阳市| 山东省| 霍邱县| 东光县| 历史| 山丹县| 高台县| 甘洛县| 义马市| 五大连池市| 龙岩市| 湖北省| 景宁| 虞城县| 大埔区| 平安县| 原平市| 洪雅县| 洛浦县| 林州市|