current position:Home>[Python crawler] Six, XPath and lxml class library for data extraction

[Python crawler] Six, XPath and lxml class library for data extraction

2022-11-08 09:25:34Deng Dashuai


往期内容提要:


一、非结构化数据与结构化数据

一般来讲对我们而言,需要抓取的是某个网站或者某个应用的内容,提取有用的价值.内容一般分为两部分,非结构化的数据 和 结构化的数据.

  • 非结构化数据:先有数据,再有结构.
  • 结构化数据:先有结构、再有数据.
  • 不同类型的数据,我们需要采用不同的方式来处理.
处理方式非结构化数据结构化数据
正则表达式文本、电话号码、邮箱地址、HTML 文件XML 文件
XPathHTML 文件XML 文件
CSS选择器HTML 文件XML 文件
JSON PathJSON 文件
转化成Python类型JSON 文件(json类)、XML 文件(xmltodict)

The previous chapter introduced you to regular expressions in detail,有同学说,我正则用的不好,处理HTML文档很累,有没有其他的方法?有!那就是XPath,我们可以先将 HTML文件 转换成 XML文档,然后用 XPath 查找 HTML 节点或元素.

二、了解XML

  • XML 指可扩展标记语言(EXtensible Markup Language)
  • XML 是一种标记语言,很类似 HTML
  • XML 的设计宗旨是传输数据,而非显示数据
  • XML 的标签需要我们自行定义.
  • XML 被设计为具有自我描述性.
  • XML 是 W3C 的推荐标准

W3School官方文档:http://www.w3school.com.cn/xml/index.asp

(1) XML 和 HTML 的区别

数据格式描述设计目标
XMLExtensible Markup Language (可扩展标记语言)被设计为传输和存储数据,其焦点是数据的内容.
HTMLHyperText Markup Language (超文本标记语言)显示数据以及如何更好显示数据.
HTML DOMDocument Object Model for HTML (文档对象模型)通过 HTML DOM,可以访问所有的 HTML 元素,连同它们所包含的文本和属性.可以对其中的内容进行修改和删除,同时也可以创建新的元素.

(2) XML文档示例

<?xml version="1.0" encoding="utf-8"?>

<bookstore>

  <book category="cooking">
    <title lang="en">Everyday Italian</title>  
    <author>Giada De Laurentiis</author>  
    <year>2005</year>  
    <price>30.00</price>
  </book>  

  <book category="children">
    <title lang="en">Harry Potter</title>  
    <author>J K. Rowling</author>  
    <year>2005</year>  
    <price>29.99</price>
  </book>  

  <book category="web">
    <title lang="en">XQuery Kick Start</title>  
    <author>James McGovern</author>  
    <author>Per Bothner</author>  
    <author>Kurt Cagle</author>  
    <author>James Linn</author>  
    <author>Vaidyanathan Nagarajan</author>  
    <year>2003</year>  
    <price>49.99</price>
  </book>

  <book category="web" cover="paperback">
    <title lang="en">Learning XML</title>  
    <author>Erik T. Ray</author>  
    <year>2003</year>  
    <price>39.95</price>
  </book>

</bookstore>

(3) HTML DOM 模型示例

HTML DOM 定义了访问和操作 HTML 文档的标准方法,以树结构方式表达 HTML 文档.

在这里插入图片描述

(4) XML的节点关系

<?xml version="1.0" encoding="utf-8"?>

<bookstore>

<book>
  <title>Harry Potter</title>
  <author>J K. Rowling</author>
  <year>2005</year>
  <price>29.99</price>
</book>

</bookstore>
名称含义例子
父(Parent)每个元素以及属性都有一个父book 元素是 title、author、year 以及 price 元素的父
子(Children)元素节点可有零个、一个或多个子title、author、year 以及 price 元素都是 book 元素的子
同胞(Sibling)拥有相同的父的节点title、author、year 以及 price 元素都是同胞
先辈(Ancestor)某节点的父、父的父,等等title 元素的先辈是 book 元素和 bookstore 元素
后代(Descendant)某个节点的子,子的子,等等bookstore 的后代是 book、title、author、year 及 price 元素

三、了解XPath

XPath (XML Path Language) 是一门在 XML 文档中查找信息的语言,可用来在 XML 文档中对元素和属性进行遍历.

W3School官方文档:http://www.w3school.com.cn/xpath/index.asp

(1) XPath 开发工具

  1. 开源的XPath表达式编辑工具:XMLQuire(XML格式文件可用)
  2. Chrome插件 XPath Helper
  3. Firefox插件 XPath Checker

在这里插入图片描述
这里以Chrome插件 XPath Helper为例,You can see that the matched tags will be loadedclass="xh-highlight"Highlight Label.Beginners can practice more,The result is echoed in the black box at the top right,其中RESULTS The number after the parentheses refers to the number of matched targets.

(2) 选取节点

XPath 使用路径表达式来选取 XML 文档中的节点或者节点集.这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似.

下面列出了最常用的路径表达式:

表达式描述
nodename选取此节点的所有子节点.
/从根节点选取.
//从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置.
.选取当前节点.
..选取当前节点的父节点.
@选取属性.

在下面的表格中,我们已列出了一些路径表达式以及表达式的结果:

路径表达式结果
bookstore选取 bookstore 元素的所有子节点.
/bookstore选取根元素 bookstore.注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!
bookstore/book选取属于 bookstore 的子元素的所有 book 元素.
//book选取所有 book 子元素,而不管它们在文档中的位置.
bookstore//book选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 bookstore 之下的什么位置.
//@lang选取名为 lang 的所有属性.

(3) 谓语(Predicates)

谓语用来查找某个特定的节点或者包含某个指定的值的节点,被嵌在方括号中.

在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:

路径表达式结果
/bookstore/book[1]选取属于 bookstore 子元素的第一个 book 元素.
/bookstore/book[last()]选取属于 bookstore 子元素的最后一个 book 元素.
/bookstore/book[last()-1]选取属于 bookstore 子元素的倒数第二个 book 元素.
/bookstore/book[position()<3]选取最前面的两个属于 bookstore 元素的子元素的 book 元素.
//title[@lang]选取所有拥有名为 lang 的属性的 title 元素.
//title[@lang=’eng’]选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性.
/bookstore/book[price>35.00]选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00.
/bookstore/book[price>35.00]/title选取 bookstore The value in the element must be greater than 35.00的 book 元素的所有 title 元素.

(4) 选取未知节点

XPath 通配符可用来选取未知的 XML 元素.

通配符描述
*匹配任何元素节点.
@*匹配任何属性节点.
node()匹配任何类型的节点.

在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

路径表达式结果
/bookstore/*选取 bookstore 元素的所有子元素.
//*选取文档中的所有元素.
html/node()/meta/@*选择html下面任意节点下的meta节点的所有属性
//title[@*]选取所有带有属性的 title 元素.

(5) 选取若干路径

通过在路径表达式中使用“|”运算符,您可以选取若干个路径.

在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

路径表达式结果
//book/title | //book/price选取 book 元素的所有 title 和 price 元素.
//title | //price选取文档中的所有 title 和 price 元素.
/bookstore/book/title | //price选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素.

(6) XPath的运算符

下面列出了可用在 XPath 表达式中的运算符:

在这里插入图片描述

这些就是XPath的语法内容,在运用到Python抓取时要先转换为xml.

(7) 归纳总结:

  • 获取文本

    • a/text() 获取a下的文本
    • a//text() 获取a下的所有标签的文本
    • //a[text()='下一页'] 选择文本为下一页三个字的a标签
  • @符号

    • a/@href 获取a下的href ——>举一反三:a/@scr 获取a下的scr值
    • //div[@id="detail-list"]——>举一反三://*[@class="aa"] Arbitrary positioningclass为aa的标签
  • //

    • 在xpath最前面表示从当前html中任意位置开始选择
    • li//a 表示的是li下任何一个标签

四、lxml库

lxml 是 一个HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 数据.

lxml和正则一样,也是用 C 实现的,是一款高性能的 Python HTML/XML 解析器,我们可以利用之前学习的XPath语法,来快速的定位特定元素以及节点信息.

lxml python 官方文档:http://lxml.de/index.html

需要安装C语言库,可使用 pip 安装:pip install lxml (或通过wheel方式安装)

(1) 初步使用

我们利用它来解析 HTML 代码,简单示例:

# lxml_test.py

# 使用 lxml 的 etree 库
from lxml import etree

text = ''' <div> <ul> <li class="item-0"><a href="link1.html">first item</a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html">third item</a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a> #注意,此处缺少一个 </li> 闭合标签 </ul> </div> '''

#利用etree.HTML,将字符串解析为HTML文档
html = etree.HTML(text)

# 按字符串序列化HTML文档
result = etree.tostring(html)

print(result)

输出结果:

<html><body>
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html">third item</a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
</ul>
 </div>
</body></html>

lxml 可以自动修正 html 代码,例子里不仅补全了 li 标签,还添加了 body,html 标签.

(2) 文件读取:

除了直接读取字符串,lxml还支持从文件里读取内容.我们新建一个hello.html文件:

<!-- hello.html -->
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
     </ul>
 </div>

再利用 etree.parse() 方法来读取文件.

# lxml_parse.py

from lxml import etree

# 读取外部文件 hello.html
html = etree.parse('./hello.html')
result = etree.tostring(html, pretty_print=True)

print(result)

输出结果与之前相同:

<html><body>
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html">third item</a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
</ul>
 </div>
</body></html>

五、XPath实例测试

<!-- hello.html -->
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
     </ul>
 </div>

(1) 获取所有的 <li> 标签

# xpath_li.py

from lxml import etree

html = etree.parse('hello.html')
print type(html)  # 显示etree.parse() 返回类型

result = html.xpath('//li')

print result      # 打印<li>标签的元素集合
print len(result)
print type(result)
print type(result[0])

输出结果:

<type 'lxml.etree._ElementTree'>
[<Element li at 0x1014e0e18>, <Element li at 0x1014e0ef0>, <Element li at 0x1014e0f38>, <Element li at 0x1014e0f80>, <Element li at 0x1014e0fc8>]
5
<type 'list'>
<type 'lxml.etree._Element'>

(2) 继续获取 hello.html 属性

<!-- hello.html -->
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
     </ul>
 </div>
# xpath_li.py

from lxml import etree

html = etree.parse('hello.html')
result1 = html.xpath('//li/@class')                // 获取 <li> 标签的所有 class 属性
result2 = html.xpath('//li/a[@href="link1.html"]') //获取<li>标签下 href 为 link1.html 的 <a> 标签
result3 = html.xpath('//li//span')                 //获取<li> 标签下的所有 <span> 标签 (因为 / 是用来获取子元素的,而 <span> 并不是 <li> 的子元素,所以,要用双斜杠)
result4 = html.xpath('//li/a//@class')             //获取 <li> 标签下的 <a> 标签里的所有 class
result5 = html.xpath('//li[last()]/a/@href')       //获取最后一个 <li><a> 的 href
result6 = html.xpath('//li[last()-1]/a')           //获取倒数第二个元素的内容
result7 = html.xpath('//*[@class="bold"]')         //获取 class 值为 bold 的标签名

print result1
print result2
print result3
print result4
print result5
print result6
print result7

运行结果

['item-0', 'item-1', 'item-inactive', 'item-1', 'item-0']
[<Element a at 0x10ffaae18>]
[<Element span at 0x10d698e18>]
['blod']
['link5.html']
fourth item
span

六、使用XPath爬虫

现在我们用XPath来做一个简单的爬虫,我们尝试爬取某个贴吧里的所有帖子,并且将该这个帖子里每个楼层发布的图片下载到本地.

#coding=utf-8
import requests
from lxml import etree
import json

class Tieba:

    def __init__(self,tieba_name):
        self.tieba_name = tieba_name #Receive the post bar name
        #Set to mobileUA
        self.headers = {
    "User-Agent": "Mozilla/5.0 (iPhone; CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko) Version/9.0 Mobile/13B143 Safari/601.1"}

    def get_total_url_list(self):
        '''获取所有的url list'''
        url = "https://tieba.baidu.com/f?kw="+self.tieba_name+"&ie=utf-8&pn={}&"
        url_list = []
        for i in range(100): #Stitching through loops100个url
            url_list.append(url.format(i*50))
        return url_list #返回100个url的url list

    def parse_url(self,url):
        '''一个发送请求,获取响应,同时etree处理html'''
        print("parsing url:",url)
        response = requests.get(url,headers=self.headers,timeout=10) #发送请求
        html = response.content.decode() #获取html字符串
        html = etree.HTML(html) #获取element 类型的html
        return html

    def get_title_href(self,url):
        '''获取一个页面的title和href'''
        html = self.parse_url(url)  #返回elemet类型的html,具有xpath方法
        li_temp_list = html.xpath("//li[@class='tl_shadow']") #分组,按照li标签分组
        total_items = []
        for i in li_temp_list: #遍历分组
            # href = i.xpath("./a/@href")[0] if len(i.xpath("./a/@href"))>0 else None
            # if href is not None and not href.startswith("https:"):
            # href = "https:"+href
            href = "https:"+i.xpath("./a/@href")[0] if len(i.xpath("./a/@href"))>0 else None
            text = i.xpath("./a/div[1]/span[1]/text()")
            text = text[0] if len(text)>0 else None
            item = dict(  #放入字典
                href = href,
                text = text
            )
            total_items.append(item)
        return total_items #Returns a page of allitem

    def get_img(self,url):
        '''Get all images in a post'''
        html = self.parse_url(url) #返回elemet类型的html,具有xpath方法
        img_list = html.xpath('//div[@data-class="BDE_Image"]/@data-url')
        img_list = [i.split("src=")[-1] for i in img_list] #Regular expressions to extract imagesurl
        img_list = [requests.utils.unquote(i) for i in img_list] #URL解码
        return img_list

    def save_item(self,item):
        '''保存一个item'''
        with open("teibatupian.txt","a") as f:
            f.write(json.dumps(item,ensure_ascii=False,indent=2))
            f.write("\n")

    def run(self):
        #1、找到了url规律,url list
        url_list = self.get_total_url_list()
        for url in url_list:
        #2、遍历urllist 发送请求,获得响应,etree处理html
        # 3、提取title,href
            total_item = self.get_title_href(url)
            for item in total_item:
                href = item["href"]
                img_list = self.get_img(href) #Gets the list of images for the post
                item["img"] = img_list
                # 4、保存到本地
                print(item)
                self.save_item(item)

if __name__ == "__main__":
    tieba = Tieba("CSDN")
    tieba.run()

基本思路:After determining the crawling object,开始运行run方法,get_total_url_listmethod defines a recursive method for each page link,首先结合parse_urlThe method crawls all the data,并通过etreeImport all numbers to lxml类库中,再通过get_title_href方法和get_img方法采用XPathform to extract useful data,最后通过save_itemmethod to implement data storage.

爬虫一共四个主要步骤:

  1. 明确目标 (要知道你准备在哪个范围或者网站去搜索)
  2. 爬 (将所有的网站的内容全部爬下来)
  3. 取 (去掉对我们没用处的数据)
  4. 处理数据(按照我们想要的方式存储和使用)
步骤编号爬虫步骤对应操作
1明确目标Tieba(self,tieba_name)
2get_total_url_list;parse_url
3get_title_href;get_img
4处理数据save_item

七、CSS 选择器:BeautifulSoup4

除了 lxml 之外,Beautiful Soup 也是一个HTML/XML的解析器,主要的功能也是解析和提取 HTML/XML 数据.lxml 只会局部遍历,而Beautiful Soup 是基于HTML DOM的,会载入整个文档,解析整个DOM树,因此时间和内存开销都会大很多,所以性能要低于lxml,Therefore, it will not be repeated here.

BeautifulSoup 用来解析 HTML 比较简单,API非常人性化,支持CSS选择器、Python标准库中的HTML解析器,也支持 lxml 的 XML解析器.

Beautiful Soup 3 目前已经停止开发,推荐现在的项目使用Beautiful Soup 4.使用 pip 安装即可:pip install beautifulsoup4

官方文档:http://beautifulsoup.readthedocs.io/zh_CN/v4.4.0

抓取工具速度使用难度安装难度
正则最快困难无(内置)
BeautifulSoup最简单简单
lxml简单一般

后期内容提要:

  • [Python爬虫] 七、结构化数据提取之JSON与JsonPATH
  • [Python爬虫] 八、动态HTML处理之Selenium与PhantomJS
  • [Python爬虫] 九、Machine vision and machine image recognitionTesseract
  • [Python爬虫] 十、Text for machine image recognition、验证码识别
  • [Python爬虫] 十一、Scrapy 框架

如果您有任何疑问或者好的建议,期待你的留言与评论!

copyright notice
author[Deng Dashuai],Please bring the original link to reprint, thank you.
https://en.pythonmana.com/2022/312/202211080910333721.html

Random recommended