最新公告
  • 欢迎您光临起源地模板网,本站秉承服务宗旨 履行“站长”责任,销售只是起点 服务永无止境!立即加入钻石VIP
  • Python3爬虫利器:Scrapyd API的安装(Scrapy分布式)

    正文概述    2020-09-21   570

    Python3爬虫利器:Scrapyd API的安装(Scrapy分布式)

    安装好了Scrapyd之后,我们可以直接请求它提供的API来获取当前主机的Scrapy任务运行状况。比如,某台主机的IP为192.168.1.1,则可以直接运行如下命令获取当前主机的所有Scrapy项目:

    curl http://localhost:6800/listprojects.json

    运行结果如下:

    {"status": "ok", "projects": ["myproject", "otherproject"]}

    返回结果是JSON字符串,通过解析这个字符串,便可以得到当前主机的所有项目。

    但是用这种方式来获取任务状态还是有点烦琐,所以Scrapyd API就为它做了一层封装,下面我们来看下它的安装方式。

    1. 相关链接

    GitHub:https://pypi.python.org/pypi/python-scrapyd-api/

    PyPI:https://pypi.python.org/pypi/python-scrapyd-api

    官方文档:http://python-scrapyd-api.readthedocs.io/en/latest/usage.html

    2. pip安装

    这里推荐使用pip安装,命令如下:

    pip install python-scrapyd-api

    3. 验证安装

    安装完成之后,便可以使用Python来获取主机状态了,所以上面的操作便可以用Python代码实现:

    from scrapyd_api import ScrapydAPI
    scrapyd = ScrapydAPI('http://localhost:6800')
    print(scrapyd.list_projects())

    运行结果如下:

    ["myproject", "otherproject"]

    这样我们便可以用Python直接来获取各个主机上Scrapy任务的运行状态了。

    python学习网,免费的在线学习python平台,欢迎关注!

    本文转自:https://cuiqingcai.com/5453.html


    起源地下载网 » Python3爬虫利器:Scrapyd API的安装(Scrapy分布式)

    常见问题FAQ

    免费下载或者VIP会员专享资源能否直接商用?
    本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
    提示下载完但解压或打开不了?
    最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。若排除这种情况,可在对应资源底部留言,或 联络我们.。
    找不到素材资源介绍文章里的示例图片?
    对于PPT,KEY,Mockups,APP,网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。
    模板不会安装或需要功能定制以及二次开发?
    请QQ联系我们

    发表评论

    还没有评论,快来抢沙发吧!

    如需帝国cms功能定制以及二次开发请联系我们

    联系作者

    请选择支付方式

    ×
    迅虎支付宝
    迅虎微信
    支付宝当面付
    余额支付
    ×
    微信扫码支付 0 元