最新公告
  • 欢迎您光临起源地模板网,本站秉承服务宗旨 履行“站长”责任,销售只是起点 服务永无止境!立即加入钻石VIP
  • Python爬虫正则表达式如何使用

    正文概述    2020-08-27   230

    Python爬虫正则表达式如何使用

    正则表达式

    Python爬虫正则表达式如何使用

    re 模块的一般使用步骤如下:

    使用 compile() 函数将正则表达式的字符串形式编译为一个 Pattern 对象。

    通过 Pattern 对象提供的一系列方法对文本进行匹配查找,获得匹配结果,一个 Match 对象。

    最后使用 Match 对象提供的属性和方法获得信息,根据需要进行其他的操作。

    相关推荐:《Python视频教程》

    pattern = re.compile('\d')    #将正则表达式编译成一个pattern规则对象
    pattern.match()    #从起始位置开始往后查找,返回第一个符合规则的,只匹配一次
    pattern.search()   #从任意位置开始往后查找,返回第一个符合规则的,只匹配一次
    pattern.findall()  #所有的全部匹配,返回列表
    pattern.finditer() #所有的全部匹配,返回的是一个迭代器
    pattern.split()    #分割字符串,返回列表
    pattern.sub()      #替换
    re.I   #表示忽略大小写
    re.S   #表示全文匹配

    1.match()

    import re
    pattern = re.compile('\d+')
    m = pattern.match('aaa123bbb456',3,5)   #可以指定match起始和结束的位置match(string,begin,end)
    print m.group()     #12
    m = pattern.match('aaa123bbb456',3,6)
    print m.group()     #123
    import re
    #匹配两组, re.I忽略大小写
    pattern = re.compile(r"([a-z]+) ([a-z]+)",re.I)  #第一组(字母)和第二组(字母)之间以空格分开
    m = pattern.match("Hello world and Python")
    print m.group(0)     #Hello world    group(0)获取所有子串
    print m.group(1)     #Hello          group(1)所有子串里面的第一个子串
    print m.group(2)     #world          group(2)所有子串里面的第二个子串

    2.search()

    import re
    pattern = re.compile(r'\d+')
    m = pattern.search('aaa123bbb456')
    print m.group()    #123
    m = pattern.search('aaa123bbb456',2,5)
    print m.group()    #12

    3.findall()

    import re
    pattern = re.compile(r'\d+')
    m = pattern.findall('hello 123456 789')   #
    print m    #['123456', '789']
    m = pattern.findall('hello 123456 789',5,10)
    print m    #['1234']

    4.split()

    # _*_ coding:utf-8 _*_
    import re
    pattern = re.compile(r'[\s\d\\\;]+')    #以空格,数字,'\',';'做分割
    m = pattern.split(r'a b22b\cc;d33d   ee')
    print m        #['a', 'b', 'b', 'cc', 'd', 'd', 'ee']

    5.sub()

    # _*_ coding:utf-8 _*_
    import re
    pattern = re.compile(r'(\w+) (\w+)')
    str = 'good 111,job 222'
    m = pattern.sub('hello python',str)
    print m    #hello python,hello python
    m = pattern.sub(r"'\1':'\2'",str)
    print m    #'good':'111','job':'222'
    # _*_ coding:utf-8 _*_
    import re
    pattern = re.compile(r'\d+')
    str = 'a1b22c33d4e5f678'
    m = pattern.sub('*',str)    #a*b*c*d*e*f*   把数字替换成'*'
    print m

    内涵段子实例

    爬取贴吧所有内容,并通过正则表达式爬取出所有的段子

    url变化

    第一页url: http: //www.neihan8.com/article/list_5_1 .html

    第二页url: http: //www.neihan8.com/article/list_5_2 .html

    第三页url: http: //www.neihan8.com/article/list_5_3 .html

    Python爬虫正则表达式如何使用

    pattern = re.compile('<dd\sclass="content">(.*?)</dd>', re.S)

    每个段子内容都是在 <dd class='content'>......</dd>里面,通过正则可以获取内

    #!/usr/bin/env python
    # -*- coding:utf-8 -*-
    import urllib2
    import re
    class Spider:
        def __init__(self):
            # 初始化起始页位置
            self.page = 1
            # 爬取开关,如果为True继续爬取
            self.switch = True
        def loadPage(self):
            """
                作用:下载页面
            """
            print "正在下载数据...."
            url = "http://www.neihan.net/index_" + str(self.page) + ".html"
            headers = {
                'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) 
                Chrome/60.0.3112.101 Safari/537.36'}
            request = urllib2.Request(url, headers = headers)
            response = urllib2.urlopen(request)
            # 获取每页的HTML源码字符串
            html = response.read()
            #print html
            # 创建正则表达式规则对象,匹配每页里的段子内容,re.S 表示匹配全部字符串内容
            pattern = re.compile('<dd\sclass="content">(.*?)</dd>', re.S)
            # 将正则匹配对象应用到html源码字符串里,返回这个页面里的所有段子的列表
            content_list = pattern.findall(html)
            # 调用dealPage() 处理段子里的杂七杂八
            self.dealPage(content_list)
        def dealPage(self, content_list):
            """
                处理每页的段子
                content_list : 每页的段子列表集合
            """
            for item in content_list:
                # 将集合里的每个段子按个处理,替换掉无用数据
                item = item.replace("<p>","").replace("</p>", "").replace("<br/>", "")
                # 处理完后调用writePage() 将每个段子写入文件内
                self.writePage(item)
        def writePage(self, item):
            """
                把每条段子逐个写入文件里
                item: 处理后的每条段子
            """
            # 写入文件内
            print "正在写入数据...."
            with open("tieba.txt", "a") as f:
                f.write(item)
        def startWork(self):
            """
                控制爬虫运行
            """
            # 循环执行,直到 self.switch == False
            while self.switch:
                # 用户确定爬取的次数
                self.loadPage()
                command = raw_input("如果继续爬取,请按回车(退出输入quit)")
                if command == "quit":
                    # 如果停止爬取,则输入 quit
                    self.switch = False
                # 每次循环,page页码自增1
                self.page += 1
            print "谢谢使用!"
    if __name__ == "__main__":
        duanziSpider = Spider()
        duanziSpider.startWork()

    可以按回车接着爬取下一页内容,输入QUIT退出。

     爬取后的内容:

    Python爬虫正则表达式如何使用


    起源地下载网 » Python爬虫正则表达式如何使用

    常见问题FAQ

    免费下载或者VIP会员专享资源能否直接商用?
    本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
    提示下载完但解压或打开不了?
    最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。若排除这种情况,可在对应资源底部留言,或 联络我们.。
    找不到素材资源介绍文章里的示例图片?
    对于PPT,KEY,Mockups,APP,网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。
    模板不会安装或需要功能定制以及二次开发?
    请QQ联系我们

    发表评论

    还没有评论,快来抢沙发吧!

    如需帝国cms功能定制以及二次开发请联系我们

    联系作者

    请选择支付方式

    ×
    迅虎支付宝
    迅虎微信
    支付宝当面付
    余额支付
    ×
    微信扫码支付 0 元