重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
介绍:
目前成都创新互联已为上千余家的企业提供了网站建设、域名、网页空间、网站托管维护、企业网站设计、杞县网站维护等服务,公司将坚持客户导向、应用为本的策略,正道将秉承"和谐、参与、激情"的文化,与客户和合作伙伴齐心协力一起成长,共同发展。
最近在学Python爬虫,在这里对数据解析模块lxml做个学习笔记。
lxml、xpath及解析器介绍:
lxml是Python的一个解析库,支持HTML和XML的解析,支持xpath解析方式,而且解析效率非常高。xpath,全称XML Path Language,即XML路径语言,它是一门在XML文档中查找信息的语言,它最初是用来搜寻XML文档的,但是它同样适用于HTML文档的搜索
xml文件/html文件结点关系:
父节点(Parent)
子节点(Children)
同胞节点(Sibling)
先辈节点(Ancestor)
后代节点(Descendant)
xpath语法:
nodename 选取此节点的所有子节点
// 从任意子节点中选取
/ 从根节点选取
. 选取当前节点
.. 选取当前节点的父节点
@ 选取属性
解析器比较:
解析器 速度 难度
re 最快 难
BeautifulSoup 慢 非常简单
lxml 快 简单
学习笔记:
# -*- coding: utf-8 -*-
from lxml import etree
html_doc = """
The Dormouse's story The Dormouse's story
Once upon a time there were three little sisters; and their names were
Lacie and
and they lived at the bottom of a well.
...
"""
selector = etree.HTML(html_doc) #创建一个对象
links = selector.xpath('//p[@class="story"]/a/@href') # 取出页面内所有的链接
for link in links:
print link
xml_test = """
lizibin
m sjz
28
konigerwin@163.com
135......
wsq
f shanghai
25
konigerwiner@163.com
135......
liqian
f SH
28
konigerwinarry@163.com
135......
qiangli
f SH
29
konigerwinarry@163.com
135......
buzhidao
f SH
999
konigerwinarry@163.com
135......
"""
#r = requests.get('http://xxx.com/abc.xml') 也可以请求远程服务器上的xml文件
#etree.HTML(r.text.encode('utf-8'))
xml_code = etree.HTML(xml_test) #生成一个etree对象
#选取所有子节点的name(地址)
print xml_code.xpath('//name')
选取所有子节点的name值(数据)
print xml_code.xpath('//name/text()')
print ''
#以notebook以根节点选取所有数据
notebook = xml_code.xpath('//notebook')
#取出第一个节点的name值(数据)
print notebook[0].xpath('.//name/text()')[0]
addres = notebook[0].xpath('.//name')[0]
#取出和第一个节点同级的 address 值
print addres.xpath('../address/text()')
#选取属性值
print addres.xpath('../address/@lang')
#选取notebook下第一个user的name属性
print xml_code.xpath('//notebook/user[1]/name/text()')
#选取notebook下最后一个user的name属性
print xml_code.xpath('//notebook/user[last()]/name/text()')
#选取notebook下倒数第二个user的name属性
print xml_code.xpath('//notebook/user[last()-1]/name/text()')
#选取notebook下前两名user的address属性
print xml_code.xpath('//notebook/user[position()<3]/address/text()')
#选取所有分类为web的name
print xml_code.xpath('//notebook/user[@category="cb"]/name/text()')
#选取所有年龄小于30的人
print xml_code.xpath('//notebook/user[age<30]/name/text()')
#选取所有class属性中包含dba的class属性
print xml_code.xpath('//notebook/user[contains(@class,"dba")]/@class')
print xml_code.xpath('//notebook/user[contains(@class,"dba")]/name/text()')