爬取两万多条租房数据,算算在广州你能「活到」第几集?

2018 年 12 月 15 日 CSDN

作者 | zone7

责编 | 仲培艺

此前,笔者曾用 Python 爬取 1.7 万条租房数据,并据此撰文揭示了深圳房价飙升背后的生存压力。此番再析广州租房价格现状,在升级爬虫技术之余,也完善了更多细节,源码颇值细细探究。此次分析采集了广州 11 个区,23339 条数据,如下图:

样本数据

其中后半部分地区数据量偏少,是由于该区房源确实不足。因此,此次调查也并非非常准确,权且当个娱乐项目,供大家观赏。



统计结果


我们且先看统计结果,然后再看技术分析。广州房源分布如下(按区划分),其中天河占据了大部分房源,但这块地的房租可谓不菲。

房源分布

房租单价(每月每平方米单价 -- 平均数)

即 1 平方米 1 个月的价格。方块越大,代表价格越高。

房租单价:平方米/月

可以看出天河、越秀、海珠都越过了 50 大关,分别是 75.042 、64.249、59.621 ,是其他地区的几倍。

如果在天河租个 20 平方的房间:

75.042 x 20 = 1500.84

再来个两百的水电、物业:

1500.84 + 200 = 1700.84

我们按正常生活来算的话,每天早餐 10 块,中午 15 块,晚饭 15 块:

1700.84 + 40 x 30 = 2700.84

那么平时的日常生活需要 2700.84 块。

隔断时间下个馆子,每个月买些衣服,交通费,谈个女朋友,与女朋友出去逛街,妥妥滴加个 2500:

2700.84 + 2500 = 5200.84

给爸妈一人一千:

5200.84 + 2000 = 7200.84

月薪一万还是有点存款的,比深圳好一点,但是可能广州的薪资就没有深圳那么高了。

房租单价:(每日每平方米单价 -- 平均数)

即 1 平方米 1 天的价格。

租房单价:平方米/日

哈哈,感受一下寸土寸金的感觉。[捂脸]

崩溃


户型

户型主要以 3 室 2 厅与 2 室 2 厅为主。与小伙伴抱团租房是最好的选择了,不然与不认识的人一起合租,可能会发生一系列让你不舒服的事情。字体越大,代表户型数量越多。

户型

户型

租房面积统计

其中 30 - 90 平方米的租房占大多数,如今之计,也只能是几个小伙伴一起租房,抱团取暖了。

租房面积统计

租房描述词云

这是爬取的租房描述,其中字体越大,标识出现的次数越多。其中【住家、全套、豪华、齐全】占据了很大的部分,说明配套设施都是挺齐全的。

租房描述



爬虫技术分析和代码实现


爬虫涉及到的技术工具如下:

  • 请求库:scrapy、requests

  • HTML 解析:BeautifulSoup

  • 词云:wordcloud

  • 数据可视化:pyecharts

  • 数据库:MongoDB

  • 数据库连接:pymongo

爬虫代码实现

跟上一篇文章不一样,此次使用了 scrapy 爬虫框架来爬取数据,各个方面也进行了优化,例如:自动生成各个页面的地址。

由于房某下各个区域的首页地址和首页以外的地址形式不一样,但又有一定的规律,所以需要拼接各个部分的地址。

首页地址案例:

# 第一页
http://gz.zu.fang.com/house-a073/

非首页地址:

# 第二页
http://gz.zu.fang.com/house-a073/i32/
# 第三页
http://gz.zu.fang.com/house-a073/i33/
# 第四页
http://gz.zu.fang.com/house-a073/i34/



先解析首页 url:

def head_url_callback(self, response):
    soup = BeautifulSoup(response.body, "html5lib")
    dl = soup.find_all("dl", attrs={"id""rentid_D04_01"})  # 获取各地区的 url 地址的 dl 标签
    my_as = dl[0].find_all("a")  # 获取 dl 标签中所有的 a 标签,
    for my_a in my_as:
        if my_a.text == "不限":  # 不限地区的,特殊处理
            self.headUrlList.append(self.baseUrl)
            self.allUrlList.append(self.baseUrl)
            continue
        if "周边" in my_a.text:  # 清除周边地区的数据
            continue
        # print(my_a["href"])
        # print(my_a.text)
        self.allUrlList.append(self.baseUrl + my_a["href"])
        self.headUrlList.append(self.baseUrl + my_a["href"])
    print(self.allUrlList)
    url = self.headUrlList.pop(0)
    yield Request(url, callback=self.all_url_callback, dont_filter=True)

再解析非首页 url:

这里先获取到各个地区一共有多少页,才能拼接具体的页面地址。

# 再根据头部 url 拼接其他页码的url
def all_url_callback(self, response): # 解析并拼接所有需要爬取的 url 地址
    soup = BeautifulSoup(response.body, "html5lib")
    div = soup.find_all("div", attrs={"id""rentid_D10_01"})  # 获取各地区的 url 地址的 dl 标签
    span = div[0].find_all("span")  # 获取 dl 标签中所有的 span 标签,
    span_text = span[0].text
    for index in range(int(span_text[1:len(span_text) - 1])):
        if index == 0:
            pass
            # self.allUrlList.append(self.baseUrl + my_a["href"])
        else:
            if self.baseUrl == response.url:
                self.allUrlList.append(response.url + "house/i3" + str(index + 1) + "/")
                continue
            self.allUrlList.append(response.url + "i3" + str(index + 1) + "/")
    if len(self.headUrlList) == 0:
        url = self.allUrlList.pop(0)
        yield Request(url, callback=self.parse, dont_filter=True)
    else:
        url = self.headUrlList.pop(0)
        yield Request(url, callback=self.all_url_callback, dont_filter=True)

最后解析一个页面的数据:

def parse(self, response): # 解析一个页面的数据
    self.logger.info("==========================")
    soup = BeautifulSoup(response.body, "html5lib")
    divs = soup.find_all("dd", attrs={"class""info rel"})  # 获取需要爬取得 div
    for div in divs:
        ps = div.find_all("p")
        try:  # 捕获异常,因为页面中有些数据没有被填写完整,或者被插入了一条广告,则会没有相应的标签,所以会报错
            for index, p in enumerate(ps):  # 从源码中可以看出,每一条 p 标签都有我们想要的信息,故在此遍历 p 标签,
                text = p.text.strip()
                print(text)  # 输出看看是否为我们想要的信息
            roomMsg = ps[1].text.split("|")
            area = roomMsg[2].strip()[:len(roomMsg[2]) - 1]
            item = RenthousescrapyItem()
            item["title"] = ps[0].text.strip()
            item["rooms"] = roomMsg[1].strip()
            item["area"] = int(float(area))
            item["price"] = int(ps[len(ps) - 1].text.strip()[:len(ps[len(ps) - 1].text.strip()) - 3])
            item["address"] = ps[2].text.strip()
            item["traffic"] = ps[3].text.strip()
            if (self.baseUrl+"house/"in response.url: # 对不限区域的地方进行区分
                item["region"] = "不限"
            else:
                item["region"] = ps[2].text.strip()[:2]
            item["direction"] = roomMsg[3].strip()
            print(item)
            yield item
        except:
            print("糟糕,出现 exception")
            continue
    if len(self.allUrlList) != 0
        url = self.allUrlList.pop(0)
        yield Request(url, callback=self.parse, dont_filter=True)


数据分析实现

这里主要通过 pymongo 的一些聚合运算来进行统计,再结合相关的图标库,进行数据展示。

数据分析:

    # 求一个区的房租单价(平方米/元)
    def getAvgPrice(self, region):
        areaPinYin = self.getPinyin(region=region)
        collection = self.zfdb[areaPinYin]
        totalPrice = collection.aggregate([{'$group': {'_id''$region''total_price': {'$sum''$price'}}}])
        totalArea = collection.aggregate([{'$group': {'_id''$region''total_area': {'$sum''$area'}}}])
        totalPrice2 = list(totalPrice)[0]["total_price"]
        totalArea2 = list(totalArea)[0]["total_area"]
        return totalPrice2 / totalArea2

    # 获取各个区 每个月一平方米需要多少钱
    def getTotalAvgPrice(self):
        totalAvgPriceList = []
        totalAvgPriceDirList = []
        for index, region in enumerate(self.getAreaList()):
            avgPrice = self.getAvgPrice(region)
            totalAvgPriceList.append(round(avgPrice, 3))
            totalAvgPriceDirList.append({"value": round(avgPrice, 3), "name": region + "  " + str(round(avgPrice, 3))})

        return totalAvgPriceDirList

    # 获取各个区 每一天一平方米需要多少钱
    def getTotalAvgPricePerDay(self):
        totalAvgPriceList = []
        for index, region in enumerate(self.getAreaList()):
            avgPrice = self.getAvgPrice(region)
            totalAvgPriceList.append(round(avgPrice / 303))
        return (self.getAreaList(), totalAvgPriceList)

    # 获取各区统计样本数量
    def getAnalycisNum(self):
        analycisList = []
        for index, region in enumerate(self.getAreaList()):
            collection = self.zfdb[self.pinyinDir[region]]
            print(region)
            totalNum = collection.aggregate([{'$group': {'_id''''total_num': {'$sum'1}}}])
            totalNum2 = list(totalNum)[0]["total_num"]
            analycisList.append(totalNum2)
        return (self.getAreaList(), analycisList)

    # 获取各个区的房源比重
    def getAreaWeight(self):
        result = self.zfdb.rent.aggregate([{'$group': {'_id''$region''weight': {'$sum'1}}}])
        areaName = []
        areaWeight = []
        for item in result:
            if item["_id"in self.getAreaList():
                areaWeight.append(item["weight"])
                areaName.append(item["_id"])
                print(item["_id"])
                print(item["weight"])
                # print(type(item))
        return (areaName, areaWeight)

    # 获取 title 数据,用于构建词云
    def getTitle(self):
        collection = self.zfdb["rent"]
        queryArgs = {}
        projectionFields = {'_id': False, 'title': True}  # 用字典指定需要的字段
        searchRes = collection.find(queryArgs, projection=projectionFields).limit(1000)
        content = ''
        for result in searchRes:
            print(result["title"])
            content += result["title"]
        return content

    # 获取户型数据(例如:3 室 2 厅)
    def getRooms(self):
        results = self.zfdb.rent.aggregate([{'$group': {'_id''$rooms''weight': {'$sum'1}}}])
        roomList = []
        weightList = []
        for result in results:
            roomList.append(result["_id"])
            weightList.append(result["weight"])
        # print(list(result))
        return (roomList, weightList)

    # 获取租房面积
    def getAcreage(self):
        results0_30 = self.zfdb.rent.aggregate([
            {'$match': {'area': {'$gt'0'$lte'30}}},
            {'$group': {'_id''''count': {'$sum'1}}}
        ])
        results30_60 = self.zfdb.rent.aggregate([
            {'$match': {'area': {'$gt'30'$lte'60}}},
            {'$group': {'_id''''count': {'$sum'1}}}
        ])
        results60_90 = self.zfdb.rent.aggregate([
            {'$match': {'area': {'$gt'60'$lte'90}}},
            {'$group': {'_id''''count': {'$sum'1}}}
        ])
        results90_120 = self.zfdb.rent.aggregate([
            {'$match': {'area': {'$gt'90'$lte'120}}},
            {'$group': {'_id''''count': {'$sum'1}}}
        ])
        results120_200 = self.zfdb.rent.aggregate([
            {'$match': {'area': {'$gt'120'$lte'200}}},
            {'$group': {'_id''''count': {'$sum'1}}}
        ])
        results200_300 = self.zfdb.rent.aggregate([
            {'$match': {'area': {'$gt'200'$lte'300}}},
            {'$group': {'_id''''count': {'$sum'1}}}
        ])
        results300_400 = self.zfdb.rent.aggregate([
            {'$match': {'area': {'$gt'300'$lte'400}}},
            {'$group': {'_id''''count': {'$sum'1}}}
        ])
        results400_10000 = self.zfdb.rent.aggregate([
            {'$match': {'area': {'$gt'300'$lte'10000}}},
            {'$group': {'_id''''count': {'$sum'1}}}
        ])
        results0_30_ = list(results0_30)[0]["count"]
        results30_60_ = list(results30_60)[0]["count"]
        results60_90_ = list(results60_90)[0]["count"]
        results90_120_ = list(results90_120)[0]["count"]
        results120_200_ = list(results120_200)[0]["count"]
        results200_300_ = list(results200_300)[0]["count"]
        results300_400_ = list(results300_400)[0]["count"]
        results400_10000_ = list(results400_10000)[0]["count"]
        attr = ["0-30平方米""30-60平方米""60-90平方米""90-120平方米""120-200平方米""200-300平方米""300-400平方米""400+平方米"]
        value = [
            results0_30_, results30_60_, results60_90_, results90_120_, results120_200_, results200_300_, results300_400_, results400_10000_
        ]
        return (attr, value)

数据展示:

    # 展示饼图
    def showPie(self, title, attr, value):
        from pyecharts import Pie
        pie = Pie(title)
        pie.add("aa", attr, value, is_label_show=True)
        pie.render()

    # 展示矩形树图
    def showTreeMap(self, title, data):
        from pyecharts import TreeMap
        data = data
        treemap = TreeMap(title, width=1200, height=600)
        treemap.add("深圳", data, is_label_show=True, label_pos='inside', label_text_size=19)
        treemap.render()

    # 展示条形图
    def showLine(self, title, attr, value):
        from pyecharts import Bar
        bar = Bar(title)
        bar.add("深圳", attr, value, is_convert=False, is_label_show=True, label_text_size=18, is_random=True,
                # xaxis_interval=0, xaxis_label_textsize=9,
                legend_text_size=18, label_text_color=["#000"])
        bar.render()

    # 展示词云
    def showWorkCloud(self, content, image_filename, font_filename, out_filename):
        d = path.dirname(__name__)
        # content = open(path.join(d, filename), 'rb').read()
        # 基于TF-IDF算法的关键字抽取, topK返回频率最高的几项, 默认值为20, withWeight
        # 为是否返回关键字的权重
        tags = jieba.analyse.extract_tags(content, topK=100, withWeight=False)
        text = " ".join(tags)
        # 需要显示的背景图片
        img = imread(path.join(d, image_filename))
        # 指定中文字体, 不然会乱码的
        wc = WordCloud(font_path=font_filename,
                       background_color='black',
                       # 词云形状,
                       mask=img,
                       # 允许最大词汇
                       max_words=400,
                       # 最大号字体,如果不指定则为图像高度
                       max_font_size=100,
                       # 画布宽度和高度,如果设置了msak则不会生效
                       # width=600,
                       # height=400,
                       margin=2,
                       # 词语水平摆放的频率,默认为0.9.即竖直摆放的频率为0.1
                       prefer_horizontal=0.9
                       )
        wc.generate(text)
        img_color = ImageColorGenerator(img)
        plt.imshow(wc.recolor(color_func=img_color))
        plt.axis("off")
        plt.show()
        wc.to_file(path.join(d, out_filename))

    # 展示 pyecharts 的词云
    def showPyechartsWordCloud(self, attr, value):
        from pyecharts import WordCloud
        wordcloud = WordCloud(width=1300, height=620)
        wordcloud.add("", attr, value, word_size_range=[20100])
        wordcloud.render()


距离上一篇租房市场的分析已经 3、4 个月了,笔者的技术水平也得到了一定的提高。所以努力编码才是成长的捷径。最后,应对外界条件的变动,我们还是应该提升自己的硬实力,这样才能提升自己的生存能力。

作者:zone7,一只爱折腾的后端攻城狮,爱写作爱分享。

声明:本文首发于公众号 zone7,作者投稿,版权归对方所有。

*作者独立观点,不代表 CSDN 立场。


【End】




推荐阅读:



点击“阅读原文”,打开 APP 阅读更顺畅!


登录查看更多
0

相关内容

【实用书】学习用Python编写代码进行数据分析,103页pdf
专知会员服务
192+阅读 · 2020年6月29日
最新《自动微分手册》77页pdf
专知会员服务
100+阅读 · 2020年6月6日
干净的数据:数据清洗入门与实践,204页pdf
专知会员服务
161+阅读 · 2020年5月14日
【实用书】Python爬虫Web抓取数据,第二版,306页pdf
专知会员服务
117+阅读 · 2020年5月10日
【MIT】Yufei Zhao《图论与加法组合学》,177页pdf
专知会员服务
49+阅读 · 2020年4月27日
【资源】100+本免费数据科学书
专知会员服务
107+阅读 · 2020年3月17日
《代码整洁之道》:5大基本要点
专知会员服务
49+阅读 · 2020年3月3日
比Selenium快100倍的方法爬东方财富网财务报表
程序人生
8+阅读 · 2018年10月31日
我是一个爬虫
码农翻身
12+阅读 · 2018年6月4日
Python 爬虫实践:《战狼2》豆瓣影评分析
数据库开发
5+阅读 · 2018年3月19日
清华发布全国城市AI实力榜,你那里排名第几?
Arxiv
3+阅读 · 2017年12月18日
VIP会员
相关VIP内容
【实用书】学习用Python编写代码进行数据分析,103页pdf
专知会员服务
192+阅读 · 2020年6月29日
最新《自动微分手册》77页pdf
专知会员服务
100+阅读 · 2020年6月6日
干净的数据:数据清洗入门与实践,204页pdf
专知会员服务
161+阅读 · 2020年5月14日
【实用书】Python爬虫Web抓取数据,第二版,306页pdf
专知会员服务
117+阅读 · 2020年5月10日
【MIT】Yufei Zhao《图论与加法组合学》,177页pdf
专知会员服务
49+阅读 · 2020年4月27日
【资源】100+本免费数据科学书
专知会员服务
107+阅读 · 2020年3月17日
《代码整洁之道》:5大基本要点
专知会员服务
49+阅读 · 2020年3月3日
Top
微信扫码咨询专知VIP会员