最新公告
  • 欢迎您光临起源地模板网,本站秉承服务宗旨 履行“站长”责任,销售只是起点 服务永无止境!立即加入钻石VIP
  • Python爬虫之Get和Post请求是什么

    正文概述    2020-09-11   193

    在说 Get 和 Post 请求之前,我们先来看一下 url 的编码和解码,我们在浏览器的链接里如果输入有中文的话,如:https://www.baidu.com/s?wd=贴吧,那么浏览器会自动为我们编码成:https://www.baidu.com/s?wd=%E8%B4%B4%E5%90%A7,在 Python2.x 中我们需要使用 urllib 模块的 urlencode 方法,但我们在之前的文章已经说过之后的内容以 Python3.x 为主,所以我们就说一下 Python3.x 中的编码和解码。

    Python爬虫之Get和Post请求是什么

    在 Python3.x 中,我们需要引入 urllib.parse 模块,如下:

    import urllib.parse
    data= {"kw":"贴吧"}
    # 通过 urlencode() 方法,将字典键值对按URL编码转换,从而能被web服务器接受。
    data = urllib.parse.urlencode(data)
    print(data)  # kw=%E8%B4%B4%E5%90%A7
    # 通过 unquote() 方法,把 URL编码字符串,转换回原先字符串。
    data = urllib.parse.unquote(data)
    print(data)  # kw=贴吧

    下面我们来看一下 Get 请求

    GET请求一般用于我们向服务器获取数据,比如说,我们用百度搜索 贴吧,结果如下:

    Python爬虫之Get和Post请求是什么

    在其中我们可以看到在请求部分里,http://www.baidu.com/s? 之后出现一个长长的字符串,其中就包含我们要查询的关键词贴吧,于是我们可以尝试用默认的 Get 方式来发送请求。

    相关推荐:《Python视频教程》

    import urllib.request
    import urllib.parse
    import ssl
    
    # 取消代理验证
    ssl._create_default_https_context = ssl._create_unverified_context
    
    # url 地址
    url = "http://www.baidu.com/s"
    word = {"wd": "贴吧"}
    word = urllib.parse.urlencode(word)  # 转换成url编码格式(字符串)
    url = url + "?" + word  # url首个分隔符就是 ?
    
    # User-Agent
    headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_4) AppleWebKit/537.36 (KHTML, like Gecko) 
    Chrome/73.0.3683.103 Safari/537.36"}
    
    # url 作为Request()方法的参数,构造并返回一个Request对象
    request = urllib.request.Request(url, headers=headers)
    
    # Request对象作为urlopen()方法的参数,发送给服务器并接收响应
    response = urllib.request.urlopen(request)
     
    # 类文件对象支持 文件对象的操作方法,如read()方法读取文件全部内容,返回字符串
    html = response.read().decode("utf-8")
    
    # 打印字符串
    print(html)

    我们在请求页面的时候将我们要传的值直接通过转码拼接在 url 地址后面,然后就可以获取到我们想要的内容了,最终结果如下:

    Python爬虫之Get和Post请求是什么

    通过开发者工具看页面的 HTML 和我们得到的结果是完全一致的。

    接下来我们看一下 post 请求,先来看一个 post 请求接口:https://movie.douban.com/j/chart/top_list?type=11&interval_id=100:90&start=0&limit=10,该接口为豆瓣的一个电影列表接口,为 post 请求,url 问号后面的为请求参数,结果如下:

    Python爬虫之Get和Post请求是什么

    如果我们要使用 urllib 的 post 请求,则要在 Request 第二个参数加入我们想要的参数,如下:

    import urllib.request
    import urllib.parse
    import ssl
    
    # 取消代理验证
    ssl._create_default_https_context = ssl._create_unverified_context
    
    # User-Agent
    headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_4) AppleWebKit/537.36 (KHTML, like Gecko) 
    Chrome/73.0.3683.103 Safari/537.36"}
    # post 请求参数
    data = {
        "type": "11",
        "interval_id": "100:90",
        "start": "0",
        "limit": "10"
    }
    data = urllib.parse.urlencode(data).encode("utf-8")
    
    # url 作为Request()方法的参数,构造并返回一个Request对象
    request = urllib.request.Request("https://movie.douban.com/j/chart/top_list?", data=data, headers=headers)
    
    # Request对象作为urlopen()方法的参数,发送给服务器并接收响应
    response = urllib.request.urlopen(request)
     
    # 类文件对象支持 文件对象的操作方法,如read()方法读取文件全部内容,返回字符串
    html = response.read().decode("utf-8")
     
    # 打印字符串
    print(html)

    urllib 默认的是 get 请求,urllib.request.Request() 里第一个参数为 url 地址,第二个参数为请求报头 headers,请求包头可以不写。

    urllib 默认的是 get 请求,urllib.request.Request() 里第一个参数为 url 地址,第二个参数为请求数据 data,第三个参数为请求报头 headers,请求包头可以不写。

    最终结果如下:

    Python爬虫之Get和Post请求是什么

    和我们在页面请求的结果是一样的。

    为什么有时候POST也能在URL内看到数据?

    GET方式是直接以链接形式访问,链接中包含了所有的参数,服务器端用Request.QueryString获取变量的值。如果包含了密码的话是一种不安全的选择,不过你可以直观地看到自己提交了什么内容。

    POST则不会在网址上显示所有的参数,服务器端用Request.Form获取提交的数据,在Form提交的时候。但是HTML代码里如果不指定 method 属性,则默认为GET请求,Form中提交的数据将会附加在url之后,以?分开与url分开。

    表单数据可以作为 URL 字段(method="get")或者 HTTP POST (method="post")的方式来发送。


    起源地下载网 » Python爬虫之Get和Post请求是什么

    常见问题FAQ

    免费下载或者VIP会员专享资源能否直接商用?
    本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
    提示下载完但解压或打开不了?
    最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。若排除这种情况,可在对应资源底部留言,或 联络我们.。
    找不到素材资源介绍文章里的示例图片?
    对于PPT,KEY,Mockups,APP,网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。
    模板不会安装或需要功能定制以及二次开发?
    请QQ联系我们

    发表评论

    还没有评论,快来抢沙发吧!

    如需帝国cms功能定制以及二次开发请联系我们

    联系作者

    请选择支付方式

    ×
    迅虎支付宝
    迅虎微信
    支付宝当面付
    余额支付
    ×
    微信扫码支付 0 元