最新公告
  • 欢迎您光临起源地模板网,本站秉承服务宗旨 履行“站长”责任,销售只是起点 服务永无止境!立即加入钻石VIP
  • 某数据公司电话以及地址信息爬取

    正文概述    2020-06-28   321

    某数据公司电话以及地址信息爬取

    准备:selenium+PhatomJS或者selenium+Firefox

    我这里直接用的后者selenium+Firefox

    思路: 爬取这部分信息的话,代码其实不难,主要包括模拟登陆、获得页面网址以及抓取页面信息。

    模拟登陆

    网址:https://www.tianyancha.com/login

    页面如下:

    某数据公司电话以及地址信息爬取

    使用selenium模拟登陆代码:

    time.sleep(random.random()+1)
    browser.get(loginURL)
    time.sleep(random.random()+random.randint(2,3))
    browser.find_element_by_css_selector('div.title:nth-child(2)').click()
    time.sleep(random.uniform(0.5,1))
    phone = browser.find_element_by_css_selector('div.modulein:nth-child(2) > div:nth-child(2) > input:nth-child(1)')
    phone.send_keys(zhangHao)
    time.sleep(random.uniform(0.4,0.9))
    password = browser.find_element_by_css_selector('.input-pwd')
    password.send_keys(miMa)
    click = browser.find_element_by_css_selector('div.modulein:nth-child(2) > div:nth-child(5)')
    click.click()
    time.sleep(random.uniform(0.5,1)+10)

    登录之后页面:

    某数据公司电话以及地址信息爬取

    关键词对应的页面网址:https://www.tianyancha.com/search?key= + key
    这里以“滴滴”为例:https://www.tianyancha.com/search?key=滴滴
    页面内容如下:

    某数据公司电话以及地址信息爬取

    获取公司页面网址
    解析滴滴关键词页面HTML,获得每个公司对应得URL。
    注意:非会员只能查看前五页的公司信息
    代码:

    #获取页面数
    try:
        pages = soup.find('ul',class_='pagination').find_all('li')[-2].getText().replace('...','')
    except:
        pages = 1
    finally:
        print('pages:',pages)
    
    def getUid(soup):
        urls = []
        divs = soup.find('div',class_='result-list sv-search-container').find_all('div',class_='search-item sv-search-company')                                                                             
        for div in divs:
            urls.append(div.find('div',class_='header').find('a')['href'])
        return urls
    
    #非会员只能爬前五页
    if(int(pages)>5):
        pages = 5
    
    urls = []
    for i in range(1,pages+1):
        url = 'https://www.tianyancha.com/search/p' + str(i) + '?key=' + key
        browser.get(url)
        time.sleep(random.uniform(0.6,1)+2)
        soup = BeautifulSoup(browser.page_source,'lxml')
        urls.extend(getUid(soup))

    获得企业信息
    最后根据企业网页HTML内容,解析获取需要的信息,看页面可以发现这里需要的电话和地址都在最上面就有。

    某数据公司电话以及地址信息爬取

    获取这部分内容代码:

    #这里为了避免意外每次将结果直接写入Excel文件
    try:
        for url in urls:
            path = r'C:\Users\liuliang_i\Desktop\tianYanCha.xlsx'
            try:
                df1 = pd.read_excel(path)
            except:
                df1 = pd.DataFrame(columns=['Company','Phone','Address','Url'])
            browser.get(url)
            time.sleep(random.uniform(0.4,0.8)+1)
            soup = BeautifulSoup(browser.page_source,'lxml')
            company = soup.find('div',class_='header').find('h1',class_='name').getText()
            phone = soup.find('div',class_='in-block sup-ie-company-header-child-1').find_all('span')[1].getText()
            address = soup.find('div',class_='auto-folder').find('div').getText()
            df1.loc[df1.shape[0],'Company'] = company
            df1.loc[df1.shape[0]-1,'Phone'] = phone
            df1.loc[df1.shape[0]-1,'Address'] = address
            df1.loc[df1.shape[0]-1,'Url'] = url
            df1.to_excel(path,index=0)
    except :
        pass


    最终结果如下所示:

    某数据公司电话以及地址信息爬取

    更多python爬虫相关文章请关注python自学网。


    起源地下载网 » 某数据公司电话以及地址信息爬取

    常见问题FAQ

    免费下载或者VIP会员专享资源能否直接商用?
    本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
    提示下载完但解压或打开不了?
    最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。若排除这种情况,可在对应资源底部留言,或 联络我们.。
    找不到素材资源介绍文章里的示例图片?
    对于PPT,KEY,Mockups,APP,网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。
    模板不会安装或需要功能定制以及二次开发?
    请QQ联系我们

    发表评论

    还没有评论,快来抢沙发吧!

    如需帝国cms功能定制以及二次开发请联系我们

    联系作者

    请选择支付方式

    ×
    迅虎支付宝
    迅虎微信
    支付宝当面付
    余额支付
    ×
    微信扫码支付 0 元