最新公告
  • 欢迎您光临起源地模板网,本站秉承服务宗旨 履行“站长”责任,销售只是起点 服务永无止境!立即加入钻石VIP
  • Python爬虫中的XML和XPATH是什么

    正文概述    2020-09-21   245

    Python爬虫中的XML和XPATH是什么

    XML和XPATH

    用正则处理HTML文档很麻烦,我们可以先将HTML文件转换成XML文档,然后用XPath查找HTML节点或元素。

    XML 指可扩展标记语言(EXtensible Markup Language)

    XML 是一种标记语言,很类似 HTML

    XML 的设计宗旨是传输数据,而非显示数据

    XML 的标签需要我们自行定义。

    XML 被设计为具有自我描述性。

    XML 是 W3C 的推荐标准

    XML和HTML区别

    Python爬虫中的XML和XPATH是什么

    HTML DOM 模型示例

    HTML DOM 定义了访问和操作 HTML 文档的标准方法,以树结构方式表达 HTML 文档。

    Python爬虫中的XML和XPATH是什么

    XPATH

    XPath (XML Path Language) 是一门在XML文档中查找信息的语言,可用来在 XML 文档中对元素和属性进行遍历。

    chrome插件XPATH HelPer

    Firefox插件XPATH Checker

    XPATH语法

    最常用的路径表达式:

    Python爬虫中的XML和XPATH是什么

    Python爬虫中的XML和XPATH是什么

    相关推荐:《Python视频教程》

    谓语

    谓语用来查找某个特定的节点或者包含某个指定的值的节点,被嵌在方括号中。

    在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:

    Python爬虫中的XML和XPATH是什么

    选取位置节点

    Python爬虫中的XML和XPATH是什么

    选取若干路径

    Python爬虫中的XML和XPATH是什么

    LXML库

    安装:pip install lxml

    lxml 是 一个HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 数据。

    lxml和正则一样,也是用 C 实现的,是一款高性能的 Python HTML/XML 解析器,可以利用XPath语法,来快速的定位特定元素以及节点信息。

    简单使用方法

    #!/usr/bin/env python
    # -*- coding:utf-8 -*-
    from lxml import etree
    text = '''
        <div>
            <li>11</li>
            <li>22</li>
            <li>33</li>
            <li>44</li>
        </div>
    '''
    #利用etree.HTML,将字符串解析为HTML文档
    html = etree.HTML(text)
    # 按字符串序列化HTML文档
    result = etree.tostring(html)
    print(result)

    结果:

    Python爬虫中的XML和XPATH是什么

    爬取美女吧图片

     1.先找到每个帖子列表的url集合

    Python爬虫中的XML和XPATH是什么

    Python爬虫中的XML和XPATH是什么

    2.再找到每个帖子里面的每个图片的的完整url链接

    Python爬虫中的XML和XPATH是什么

    Python爬虫中的XML和XPATH是什么

    3.要用到 lxml 模块去解析html

    #!/usr/bin/env python
    # -*- coding:utf-8 -*-
    import urllib
    import urllib2
    from lxml import etree
    def loadPage(url):
        """
            作用:根据url发送请求,获取服务器响应文件
            url: 需要爬取的url地址
        """
        request = urllib2.Request(url)
        html = urllib2.urlopen(request).read()
        # 解析HTML文档为HTML DOM模型
        content = etree.HTML(html)
        # 返回所有匹配成功的列表集合
        link_list = content.xpath('//div[@class="t_con cleafix"]/div/div/div/a/@href')
        for link in link_list:
            fulllink = "http://tieba.baidu.com" + link
            # 组合为每个帖子的链接
            #print link
            loadImage(fulllink)
    # 取出每个帖子里的每个图片连接
    def loadImage(link):
        headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko)
             Chrome/60.0.3112.101 Safari/537.36'}
        request = urllib2.Request(link, headers = headers)
        html = urllib2.urlopen(request).read()
        # 解析
        content = etree.HTML(html)
        # 取出帖子里每层层主发送的图片连接集合
        link_list = content.xpath('//img[@class="BDE_Image"]/@src')
        # 取出每个图片的连接
        for link in link_list:
            # print link
            writeImage(link)
    def writeImage(link):
        """
            作用:将html内容写入到本地
            link:图片连接
        """
        #print "正在保存 " + filename
        headers = {"User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko)
         Chrome/54.0.2840.99 Safari/537.36"}
        # 文件写入
        request = urllib2.Request(link, headers = headers)
        # 图片原始数据
        image = urllib2.urlopen(request).read()
        # 取出连接后10位做为文件名
        filename = link[-10:]
        # 写入到本地磁盘文件内
        with open(filename, "wb") as f:
            f.write(image)
        print "已经成功下载 "+ filename
    def tiebaSpider(url, beginPage, endPage):
        """
            作用:贴吧爬虫调度器,负责组合处理每个页面的url
            url : 贴吧url的前部分
            beginPage : 起始页
            endPage : 结束页
        """
        for page in range(beginPage, endPage + 1):
            pn = (page - 1) * 50
            #filename = "第" + str(page) + "页.html"
            fullurl = url + "&pn=" + str(pn)
            #print fullurl
            loadPage(fullurl)
            #print html
            print "谢谢使用"
    if __name__ == "__main__":
        kw = raw_input("请输入需要爬取的贴吧名:")
        beginPage = int(raw_input("请输入起始页:"))
        endPage = int(raw_input("请输入结束页:"))
        url = "http://tieba.baidu.com/f?"
        key = urllib.urlencode({"kw": kw})
        fullurl = url + key
        tiebaSpider(fullurl, beginPage, endPage)

    4.爬取的图片全部保存到了电脑里面

    Python爬虫中的XML和XPATH是什么

    相关推荐:

    Python爬虫正则表达式如何使用


    起源地下载网 » Python爬虫中的XML和XPATH是什么

    常见问题FAQ

    免费下载或者VIP会员专享资源能否直接商用?
    本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
    提示下载完但解压或打开不了?
    最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。若排除这种情况,可在对应资源底部留言,或 联络我们.。
    找不到素材资源介绍文章里的示例图片?
    对于PPT,KEY,Mockups,APP,网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。
    模板不会安装或需要功能定制以及二次开发?
    请QQ联系我们

    发表评论

    还没有评论,快来抢沙发吧!

    如需帝国cms功能定制以及二次开发请联系我们

    联系作者

    请选择支付方式

    ×
    迅虎支付宝
    迅虎微信
    支付宝当面付
    余额支付
    ×
    微信扫码支付 0 元