加入收藏 | 设为首页 | 会员中心 | 我要投稿 惠州站长网 (https://www.0752zz.com.cn/)- 办公协同、云通信、物联设备、操作系统、高性能计算!
当前位置: 首页 > 教程 > 正文

爬取两万多租房数据,告诉你广州房租现状

发布时间:2018-12-24 16:43:25 所属栏目:教程 来源:zone7
导读:副标题#e# 概述 前言 统计结果 爬虫代码实现 爬虫分析实现 后记 前言 建议在看这篇文章之前,请看完这三篇文章,因为本文是依赖于前三篇文章的: 爬虫利器初体验(1) 听说你的爬虫又被封了?(2) 爬取数据不保存,就是耍流氓(3) 八月份的时候,由于脑洞大开,

先解析首页 url

  1. def head_url_callback(self, response): 
  2.     soup = BeautifulSoup(response.body, "html5lib") 
  3.     dl = soup.find_all("dl", attrs={"id": "rentid_D04_01"})  # 获取各地区的 url 地址的 dl 标签 
  4.     my_as = dl[0].find_all("a")  # 获取 dl 标签中所有的 a 标签, 
  5.     for my_a in my_as: 
  6.         if my_a.text == "不限":  # 不限地区的,特殊处理 
  7.             self.headUrlList.append(self.baseUrl) 
  8.             self.allUrlList.append(self.baseUrl) 
  9.             continue 
  10.         if "周边" in my_a.text:  # 清除周边地区的数据 
  11.             continue 
  12.         # print(my_a["href"]) 
  13.         # print(my_a.text) 
  14.         self.allUrlList.append(self.baseUrl + my_a["href"]) 
  15.         self.headUrlList.append(self.baseUrl + my_a["href"]) 
  16.     print(self.allUrlList) 
  17.     url = self.headUrlList.pop(0) 
  18.     yield Request(url, callback=self.all_url_callback, dont_filter=True) 

再解析非首页 url

(编辑:惠州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读