最新公告
  • 欢迎您光临起源地模板网,本站秉承服务宗旨 履行“站长”责任,销售只是起点 服务永无止境!立即加入钻石VIP
  • Python爬虫之正则表达式

    正文概述    2020-02-28   173

    Python爬虫之正则表达式

    爬虫——爬虫中使用正则表达式

    下面我们尝试爬取内涵段子网站:http://www.neihan8.com/article/list_5_1.html

    打开之后,当你进行翻页的时候,不难注意到,url地址的变化:

    第一页url: http: //www.neihan8.com/article/list_5_1 .html

    第二页url: http: //www.neihan8.com/article/list_5_2 .html

    第三页url: http: //www.neihan8.com/article/list_5_3 .html

    第四页url: http: //www.neihan8.com/article/list_5_4 .html

    这样,我们把url规律找到了,要想爬取所有的段子,只需要修改一个参数即可。下面,我们就开始一步一步将所有的段子爬取下来。

    第一步:获取网页数据(网页上全部内容)

    1.按照我们之前的用法,我们需要写一个加载页面的方法。

    这里我们定义一个类,将url请求作为一个成员方法处理。

    我们创建一个duanzi_spider.py文件。

    然后定义一个Spider类,并且添加一个加载页面的成员方法。

    #!/usr/bin/python3
    # -*- coding:utf-8 -*-
     
    import requests
     
    class Spider(object):
        """
        一个爬虫类
        """
        def loadPage(self, url):
            """
            下载指定url页面的内容
            :return:
            """
            # User-Agent头
            header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) 
            Chrome/39.0.2171.71 Safari/537.36'}
            response = requests.get(url = url, headers = header)
            html = response.content.decode("gb18030")
             
            # 打印页面内容
            print(html)
             
            # 返回页面内容
            return html

    2.写main函数测试loadPage()方法

    if __name__ == '__main__':
        # 实例化类对象
        my_spider = Spider()
        # 让用户输入需爬取页面的页码
        page = int(input("请输入你需要爬取的页码:"))
        # 拼接用户需爬取页面的url地址
        url = "http://www.neihan8.com/article/list_5_{}.html".format(page)
        html = my_spider.loadPage(url)

    第二步:筛选数据

    我们已经得到了整个页面的数据。但是,里面有很多内容我们并不需要,所以下一步我们需要对上面爬取的内容进行筛选。如果筛选,这里就用到了我们前面讲到的正则表达式。

    首先

    import re

    然后:在我们得到的html中进行筛选匹配。

    我们需要一个匹配规则:

     我们可以打开内涵段子的网页,鼠标点击右键“查看源代码”,你会发现,我们需要的每个段子的内容都是在一个<div>标签中,而且每个div都有一个属性class="f18 mb20"。

    所以,我们只需要匹配到网页中所有<div class="f18 mb20">到</div>的数据就可以了。

    根据正则表达式,我们可以推算出一个公式是:

    <div class="f18 mb20">(.*?)</div>

    这个表达式实际上就是匹配到所有div中class="f18 mb20"里面的内容

    然后将这个正则应用到代码中,我们会得到以下代码:

    #!/usr/bin/python3
    # -*- coding:utf-8 -*-
     
    import requests
    import re
     
    class Spider(object):
        """
        一个爬虫类
        """
        def loadPage(self, url):
            """
            下载指定url页面的内容
            :return:
            """
            # User-Agent头
            header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) 
            Chrome/39.0.2171.71 Safari/537.36'}
            response = requests.get(url = url, headers = header)
            html = response.content
     
            return html.decode("gb18030")
     
        def screenPage(self, html):
            """
            筛选html内容,返回列表
            :param html:
            :return:
            """
            # <div class="f18 mb20">...</div>
            pattern = re.compile(r'<div class="f18 mb20">(.*?)</div>', re.S)
            item_list = pattern.findall(html)
     
            return item_list
     
    if __name__ == '__main__':
        # 实例化类对象
        my_spider = Spider()
        # 让用户输入需爬取页面的页码
        page = int(input("请输入你需要爬取的页码:"))
        # 拼接用户需爬取页面的url地址
        url = "http://www.neihan8.com/article/list_5_{}.html".format(page)
        # 下载网页内容
        html = my_spider.loadPage(url)
        # 筛选数据
        item_list = my_spider.screenPage(html)

    这里需要注意的是re.S是正则表达式中匹配的一个参数。

    如果没有re.S,则是只匹配一行中有没有符合规则的字符串,如果没有则下一行重新匹配。

    如果加上re.S则是将所有的字符串作为一个整体进行匹配,findall将所有匹配到的结果返回列表中。

    相关推荐:《Python视频教程》

    第三步:保存数据

    我们可以将所有的段子存放在文件中。

    def writePage(self, list):
        """
        以追加的形式存储筛选后的内容
        :param list: 筛选后的数据,列表形式
        :return:
        """
        with open(self.file_name, "a", encoding = "utf-8") as f:
            for content in list:
                # 段子内容:因为段子中有很多<p>,</p>,<br />。。。,还有一些转义字符。在这里作下替换
                content = content.replace("…", "…").replace("“", "“").replace("”", "”")
                content = content.replace(" ", "").replace("\t", "").replace(":", ":")
                content = content.replace("<p>", "").replace("</p>", "").replace("<br />", "").replace(" ", "")
                content = content.replace("\u3000", "").replace("\r\n\r\n", "\r\n")
                content = content.strip()
     
                # 写入一个段子的内容
                f.write(content)
                # 我是分割线
                f.write("*" * 30)

    第四步:完整的程序

    #!/usr/bin/python3
    # -*- coding:utf-8 -*-
     
    import requests
    import re
     
    class Spider(object):
        """
        一个爬虫类
        """
        def __init__(self, start_page, end_page):
            """
            类的初始化函数
            :param start_page:
            :param end_page:
            :return:
            """
            self.start_page = start_page
            self.end_page = end_page
            self.file_name = "duanzi.txt"
     
        def loadPage(self, url):
            """
            下载指定url页面的内容
            :return:
            """
            # User-Agent头
            header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) 
            Chrome/39.0.2171.71 Safari/537.36'}
            response = requests.get(url = url, headers = header)
            html = response.content
     
            return html.decode("gb18030")
     
        def screenPage(self, html):
            """
            筛选html内容,返回列表
            :param html:
            :return:
            """
            # <div class="f18 mb20">...</div>
            pattern = re.compile(r'<div class="f18 mb20">(.*?)</div>', re.S)
            item_list = pattern.findall(html)
     
            return item_list
     
        def writePage(self, list):
            """
            以追加的形式存储筛选后的内容
            :param list: 筛选后的数据,列表形式
            :return:
            """
            with open(self.file_name, "a", encoding = "utf-8") as f:
                for content in list:
                    # 段子内容:因为段子中有很多<p>,</p>,<br />。。。,还有一些转义字符。在这里作下替换
                    content = content.replace("…", "…").replace("“", "“").replace("”", "”")
                    content = content.replace(" ", "").replace("\t", "").replace(":", ":")
                    content = content.replace("<p>", "").replace("</p>", "").replace("<br />", "").replace(" ", "")
                    content = content.replace("\u3000", "").replace("\r\n\r\n", "\r\n").replace("\r\n", "\n")
                    content = content.strip()
     
                    # 写入一个段子的内容
                    f.write(content)
                    # 我是分割线
                    f.write("*" * 30)
     
        def run(self):
            """
            让爬虫开始工作
            :return:
            """
            # 循环处理我们需要爬取的页面
            for page in range(self.start_page, self.end_page + 1):
                # 拼接当前页码page的url地址
                url = "http://www.neihan8.com/article/list_5_{}.html".format(str(page))
                print("正在下载第{}页".format(str(page)))
                # 下载url对应的全部内容
                html = self.loadPage(url)
                # 筛选数据
                item_list = self.screenPage(html)
                # 存储筛选后的数据
                self.writePage(item_list)
     
    # 主函数
    if __name__ == '__main__':
        # 让用户输入需爬取页面的起始页码
        start_page = int(input("请输入您需要爬取的起始页:"))
        # 让用户输入需爬取页面的终止页码
        end_page   = int(input("请输入您需要爬取的终止页:"))
        # 实例化类对象
        mySpider = Spider(start_page, end_page)
        # 让爬虫开始工作
        mySpider.run()

    最后,我们执行上面的代码,完成后查看当前路径下的duanzi.txt文件,里面已经有我们要的内涵段子。

    以上便是一个非常精简的小爬虫程序,使用起来很方便,如果想要爬取其他网站的信息,只需要修改其中某些参数和一些细节就行了。


    起源地下载网 » Python爬虫之正则表达式

    常见问题FAQ

    免费下载或者VIP会员专享资源能否直接商用?
    本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
    提示下载完但解压或打开不了?
    最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。若排除这种情况,可在对应资源底部留言,或 联络我们.。
    找不到素材资源介绍文章里的示例图片?
    对于PPT,KEY,Mockups,APP,网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。
    模板不会安装或需要功能定制以及二次开发?
    请QQ联系我们

    发表评论

    还没有评论,快来抢沙发吧!

    如需帝国cms功能定制以及二次开发请联系我们

    联系作者

    请选择支付方式

    ×
    迅虎支付宝
    迅虎微信
    支付宝当面付
    余额支付
    ×
    微信扫码支付 0 元