最新公告
  • 欢迎您光临起源地模板网,本站秉承服务宗旨 履行“站长”责任,销售只是起点 服务永无止境!立即加入钻石VIP
  • Python爬虫之CSS选择器

    正文概述    2020-08-02   272

    CSS选择器

    这是另一种与find_all()方法有异曲同工的查找方法,写CSS时,标签名不加任何修饰,类名前加.,id名前加#。

    在这里我们也可以利用类似的方法来筛选元素,用到的方法是soup.select(),返回的类型是list。

    (1)通过标签名查找

    #!/usr/bin/python3
    # -*- coding:utf-8 -*-
     
    from bs4 import BeautifulSoup
     
    html = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title" name="dromouse"><b>The Dormouse's story</b></p>
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1"><!-- Elsie --></a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    <p class="story">...</p>
    """
     
    # 创建 Beautiful Soup 对象,指定lxml解析器
    soup = BeautifulSoup(html, "lxml")
     
    print(soup.select("title"))
     
    print(soup.select("b"))
     
    print(soup.select("a"))

    运行结果

    [<title>The Dormouse's story</title>]
    [<b>The Dormouse's story</b>]
    [<a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>, <a class="sister" 
    href="http://example.com/lacie" id="link2">Lacie</a>, <a class="sister" href="http://example.com/tillie" 
    id="link3">Tillie</a>]

    (2)通过类名查找

    #!/usr/bin/python3
    # -*- coding:utf-8 -*-
     
    from bs4 import BeautifulSoup
     
    html = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title" name="dromouse"><b>The Dormouse's story</b></p>
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1"><!-- Elsie --></a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    <p class="story">...</p>
    """
     
    # 创建 Beautiful Soup 对象,指定lxml解析器
    soup = BeautifulSoup(html, "lxml")
     
    print(soup.select(".title"))

    运行结果

    [<p class="title" name="dromouse"><b>The Dormouse's story</b></p>]

    (3)通过id名查找

    #!/usr/bin/python3
    # -*- coding:utf-8 -*-
    from bs4 import BeautifulSoup
     
    html = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title" name="dromouse"><b>The Dormouse's story</b></p>
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1"><!-- Elsie --></a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    <p class="story">...</p>
    """
     
    # 创建 Beautiful Soup 对象,指定lxml解析器
    soup = BeautifulSoup(html, "lxml")
     
    print(soup.select("#link1"))

    运行结果

    [<p class="title" name="dromouse"><b>The Dormouse's story</b></p>]

    相关推荐:《Python视频教程》

    (4)组合查找

    #!/usr/bin/python3
    # -*- coding:utf-8 -*-
     
    from bs4 import BeautifulSoup
     
    html = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title" name="dromouse"><b>The Dormouse's story</b></p>
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1"><!-- Elsie --></a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    <p class="story">...</p>
    """
     
    # 创建 Beautiful Soup 对象,指定lxml解析器
    soup = BeautifulSoup(html, "lxml")
     
    print(soup.select("p #link1"))

    运行结果

    [<a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>]

    (5)属性查找

    查找时还可以加入属性元素,属性需要用中括号括起来,注意属性和标签属于同一节点,所以中间不能加空格,否则会无法匹配到。

    #!/usr/bin/python3
    # -*- coding:utf-8 -*-
     
    from bs4 import BeautifulSoup
     
    html = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title" name="dromouse"><b>The Dormouse's story</b></p>
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1"><!-- Elsie --></a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    <p class="story">...</p>
    """
     
    # 创建 Beautiful Soup 对象,指定lxml解析器
    soup = BeautifulSoup(html, "lxml")
     
    print(soup.select("a[class='sister']"))

    运行结果

    [<a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>, <a class="sister" 
    href="http://example.com/lacie" id="link2">Lacie</a>, <a class="sister" href="http://example.com/tillie" 
    id="link3">Tillie</a>]

    同样,属性仍然可以与上述查找方式组合,不在同一节点的空格隔开,同一节点的不加空格。

    #!/usr/bin/python3
    # -*- coding:utf-8 -*-
     
    from bs4 import BeautifulSoup
     
    html = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title" name="dromouse"><b>The Dormouse's story</b></p>
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1"><!-- Elsie --></a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    <p class="story">...</p>
    """
     
    # 创建 Beautiful Soup 对象,指定lxml解析器
    soup = BeautifulSoup(html, "lxml")
     
    print(soup.select("p a[class='sister']"))

    运行结果

    [<a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>, <a class="sister" 
    href="http://example.com/lacie" id="link2">Lacie</a>, <a class="sister" href="http://example.com/tillie" 
    id="link3">Tillie</a>]

    (6)获取内容

    以上的select()方法返回的结果都是列表形式,可以遍历形式输出,然后用get_text()方法来获取它的内容。

    #!/usr/bin/python3
    # -*- coding:utf-8 -*-
     
    from bs4 import BeautifulSoup
     
    html = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title" name="dromouse"><b>The Dormouse's story</b></p>
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1"><!-- Elsie --></a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    <p class="story">...</p>
    """
     
    # 创建 Beautiful Soup 对象,指定lxml解析器
    soup = BeautifulSoup(html, "lxml")
     
    print(soup.select("p a[class='sister']"))
     
    for item in soup.select("p a[class='sister']"):
        print(item.get_text())

    运行结果

    [<a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>, <a class="sister" 
    href="http://example.com/lacie" id="link2">Lacie</a>, <a class="sister" href="http://example.com/tillie" id="link3">
    Tillie</a>]
     
    Lacie
    Tillie

    注意:<!-- Elsie -->为注释内容,未输出


    起源地下载网 » Python爬虫之CSS选择器

    常见问题FAQ

    免费下载或者VIP会员专享资源能否直接商用?
    本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
    提示下载完但解压或打开不了?
    最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。若排除这种情况,可在对应资源底部留言,或 联络我们.。
    找不到素材资源介绍文章里的示例图片?
    对于PPT,KEY,Mockups,APP,网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。
    模板不会安装或需要功能定制以及二次开发?
    请QQ联系我们

    发表评论

    还没有评论,快来抢沙发吧!

    如需帝国cms功能定制以及二次开发请联系我们

    联系作者

    请选择支付方式

    ×
    迅虎支付宝
    迅虎微信
    支付宝当面付
    余额支付
    ×
    微信扫码支付 0 元