CSDN2018博客之星评选结果预测第二弹

Love The Way You Lie 2022-03-20 04:14 319阅读 0赞

CSDN2018博客之星评选结果预测第二弹

CSDN2018博客之星活动开始之初,出于个人娱乐,我做了一次《大数据预测CSDN2018博客之星评选结果》,受到了较多好评,当然也十分荣幸的受到CSDN官方重视,并将文章放置在Banner推广位。

至今,CSDN2018博客之星的评选结果即将出炉。我很荣幸收到了CSDN官方的邀请,他们希望我能够在结果出炉之前再次作出一次大胆预测。所以,我将再次开启大胆预测。

闲话不多说,我们开始:

首先,如果你关注过这个活动,那么你应该知道,CSDN2018博客之星评选活动参选人员入选博主名单可以在以下网址看到 https://bss.csdn.net/m/topic/blog_star2018
即:
在这里插入图片描述
时间尚未截止,有心怡的博主入选还没有投票的,赶紧去投上一票吧。

那么,截止到本文出炉为止,200位入选博主的原创/粉丝/喜欢/评论/等级/访问/积分/排名/获得选票 各指标信息如何呢?






















































































指标 最大值 最小值 平均值 总计 最佳用户列表
原创 2327 29 292 58582 [‘迂者-贺利坚’]
粉丝 22564 47 2093 418649 [‘迂者-贺利坚’]
喜欢 6466 8 694 138967 [‘foruok’]
评论 7360 3 622 124528 [‘迂者-贺利坚’]
等级 10 3 6 1285 [‘dog250’, ‘迂者-贺利坚’]
访问 11084501 50663 1590813 318162704 [‘china_jeffery’]
积分 107000 507 14762 2952414 [‘迂者-贺利坚’]
排名 125326 12 6532 1306538 [‘迂者-贺利坚’]
投票 2823 20 141 28335 [‘徐刘根’]

由上面的表格我们可以得出的结论。

  • 目前获得票数最高的是徐刘根博主,并且获得选票高达2823票,人气相当火爆。
  • 目前文章最高总访问次数由china_jeffery博主拿下,并且访问次数高达11084501
  • 目前文章总点赞次数由foruok博主拿下,并且已经获得了6466点赞。
  • 截止目前为止,其他各项指标,包括最佳排名(12),最佳收藏(2327),最多原创(13687181),最高积分(107000),最高等级(10),最多粉丝(22564),最多评论(7360)均由迂者-贺利坚博主砍下,这个成绩可是相当恐怖的。

这里我们再重点关注一下,截止目前为止对于200位入选博主的投票情况。




















指标 最大值 最小值 平均值 总计
投票 2823 20 141 28335

即:

  • 目前总计只有28335位用户参与了投票,还没有参与过投票的博主记得给自己心怡的博主投上一票啊。(对于具有500万注册程序员用户的CSDN来说,这个参与投票人数确实有点少啊)
  • 目前入选200位博主平均获得选票有141票。(多项指标成绩最佳的迂者-贺利坚博主的选票目前还没到平均线,各位粉丝们要给力啊)

然后,我们再关注一下,目前排名前十的得票博主





























































排名 得票 博主
1 2823 徐刘根
2 1549 LovelyBear2019
3 1336 肖朋伟
4 1136 ECMAScripter
5 1111 刘望舒
6 999 方志朋
7 836 Soyoger
8 648 analogous_love
9 576 Eastmount
10 554 虚无境

第二名与第一名的差距还是相当的大啊。大家要火热开启投票节奏啊!

接下来,我们再看一下,入选的200位博主,目前博客等级排名










































等级 人数
10 2
9 3
8 18
7 83
6 50
5 39
4 3
3 2

由此看来,报名入选博主在CSDN的等级分布还是比较均匀的,纵使你目前的博客等级不是很高,只有文章质量可以也还是有机会的。

接下来,我们再看一下,入选的200位博主目前已经获得的荣誉勋章情况如下






































勋章 人数
持之以恒 170
微软mvp 1
博客之星 6
博客专家 191
专栏达人 177
1024超级勋章 3
1024活动勋章 43

即:

  • 6位作者已经拿过博客之星勋章,并且发起了再次冲击。
  • 3位作者拿到了1024超级勋章勋章,这意味着有超过3位报名作者的原创文章超过了1024篇,堪称超级写手。
  • 191位已经拿到博客专家,当然也有9位目前尚未拿到博客专家称号,说明没有博客专家称号也还是有机会的。

当然,我们在投票之余,也可以多多关注一下大佬博主们的文章,看看这些博主专家们的研究方向,看看技术热点,作为我们2019年的学习方向。我这里还是老规矩为大家贡献一张目前已入选博主的所有专栏相关课题研究方向热力图供大家参考。

在这里插入图片描述

技术实现分析

知其然亦知其所以然,如果大家也有兴趣做类似的技术分析或者想要进一步深入技术发掘分析,我们再一起看看我们是怎么分析的。

数据挖掘

首先,我们知道 入选博主名单可以在 https://bss.csdn.net/m/topic/blog_star2018 网址看到,那么自然我们分析信息需要从这里出发。

想必你也猜到了,我们需要首先爬取所有的入选博主。如果对于爬虫不太了解可以从我的Scrapy专栏或者前一篇文章《大数据预测CSDN2018博客之星评选结果》了解详细,我这里就不深入了。例如,我们可以从这里拿到入选博主的基础信息在这里插入图片描述

  1. # -*- coding: utf-8 -*-
  2. import scrapy
  3. import json
  4. from tutorial.items import BlogStar2018Item
  5. class BlogStar2018Spider(scrapy.Spider):
  6. name = 'blog_star2018'
  7. allowed_domains = ['blog.csdn.net']
  8. start_urls = ['https://bss.csdn.net/m/topic/blog_star2018']
  9. def parse(self, response):
  10. for user_info in response.xpath('//div[@class="user-info"]'):
  11. info = { }
  12. user_id = user_info.xpath('./div[@class="user-id"]/text()').extract_first()
  13. user_addr = user_info.xpath('./div[@class="avatar"]/a/@href').extract_first()
  14. user_name = user_info.xpath('./div[@class="user-name"]/span/text()').extract_first()
  15. user_number = user_info.xpath('./div[@class="user-number"]/span/em/text()').extract_first()
  16. print(user_id,user_addr,user_name,user_number)
  17. info['user_id'] = user_id
  18. info['user_addr'] = user_addr
  19. info['user_name'] = user_name
  20. info['user_number'] = user_number
  21. yield scrapy.Request(user_addr,
  22. callback=lambda response, info=info: self.parse_blog_user_info(response,info))

当然,只知道那些博主入选了本次评选是远远不够的,我们还需要知道包括但不限于 原创/粉丝/喜欢/评论/等级/访问/积分/排名/专栏/技术方向 等等信息。例如,我们可以利用分析工具抓取所有的入选博主的专栏信息
在这里插入图片描述

  1. def parse_blog_user_info(self,response,info):
  2. item = BlogStar2018Item()
  3. item['link'] = response.request.url
  4. item['blogstar_vote'] = info
  5. item['blog_title'] = response.xpath('//div[@class="title-box"]/h1[@class="title-blog"]/a/text()').extract_first()
  6. item['description'] = response.xpath('//p[@class="description"]/text()').extract_first()
  7. item['avatar_pic'] = response.xpath('//div[@class="profile-intro d-flex"]/div[@class="avatar-box d-flex justify-content-center flex-column"]/a/img/@src').extract_first()
  8. for data in response.xpath('//div[@class="data-info d-flex item-tiling"]/dl[@class="text-center"]'):
  9. data_key = data.xpath('./dt/a/text() | ./dt/text()').extract_first()
  10. data_value = data.xpath('./@title').extract_first()
  11. if data_key.find('原创') > -1:
  12. item['original'] = int(data_value)
  13. elif data_key.find('粉丝') > -1:
  14. item['fans'] = int(data_value)
  15. elif data_key.find('喜欢') > -1:
  16. item['star'] = int(data_value)
  17. elif data_key.find('评论') > -1:
  18. item['comment'] = int(data_value)
  19. for grade in response.xpath('//div[@class="grade-box clearfix"]/dl'):
  20. grade_key = grade.xpath('./dt/text()').extract_first()
  21. grade_value = grade.xpath('./dd/@title | ./dd/a/@title | ./@title').extract_first()
  22. if grade_key.find('等级') > -1:
  23. item['level'] = int(grade_value.replace('级,点击查看等级说明',''))
  24. elif grade_key.find('访问') > -1:
  25. item['visit'] = int(grade_value)
  26. elif grade_key.find('积分') > -1:
  27. item['score'] = int(grade_value)
  28. elif grade_key.find('排名') > -1:
  29. item['rank'] = int(grade_value)
  30. #勋章
  31. item['medal'] = response.xpath('//div[@class="badge-box d-flex"]/div[@class="icon-badge"]/@title').extract()
  32. blog_expert = ''.join(response.xpath('//div[@class="user-info d-flex justify-content-center flex-column"]/p[@class="flag expert"]/text()').extract()).replace('\n','').replace(' ','')
  33. if blog_expert and '' is not blog_expert :
  34. item['medal'].append(blog_expert)
  35. #博主专栏
  36. colunms = []
  37. for li in response.xpath('//div[@id="asideColumn"]/div[@class="aside-content"]/ul/li'):
  38. colunms.append({ 'colunm_name':li.xpath('./div[@class="info"]/p/a/text()').extract_first()
  39. ,
  40. 'colunm_count': li.xpath('./div[@class="info"]/div[@class="data"]/span/text()').extract_first().replace(' ', '').replace('篇',
  41. '')
  42. ,
  43. 'colunm_read': li.xpath('./div[@class="info"]/div[@class="data"]/span/text()').extract()[-1].replace(' ', '')})
  44. item['colunms'] = colunms
  45. yield item

当然,我们也可以继续抓取更多信息,这里就留给大家扩展了。

数据存储与分析

我们都知道,空有了数据来源,不能对数据做出存储与分析,等于什么都没做,所以,我们需要对我们的数据作出存储与分析。

数据存储

我们这里还是使用Elasticsearch 做数据存储,如果对Elasticsearch有兴趣,希望学习的话,可以到我的专栏查看,我这里就不展开了,我这里给大家分享一下,我这边建立的数据存储索引。

  1. PUT blogstar2018
  2. {
  3. "mappings":{
  4. "blogstar2018":{
  5. "properties":{
  6. "link": {
  7. "type": "keyword",
  8. "index": false
  9. },
  10. "blog_title":{
  11. "type": "text",
  12. "analyzer": "ik_smart",
  13. "fielddata": true
  14. },
  15. "description":{
  16. "type": "text",
  17. "analyzer": "ik_smart",
  18. "fielddata": true
  19. },
  20. "avatar_pic": {
  21. "type": "keyword",
  22. "index": false
  23. },
  24. "original":{
  25. "type": "long"
  26. },
  27. "fans":{
  28. "type": "long"
  29. },
  30. "star":{
  31. "type": "long"
  32. },
  33. "comment":{
  34. "type": "long"
  35. },
  36. "level":{
  37. "type": "long"
  38. },
  39. "visit":{
  40. "type": "long"
  41. },
  42. "score":{
  43. "type": "long"
  44. },
  45. "rank":{
  46. "type": "long"
  47. },
  48. "medal":{
  49. "type": "text",
  50. "analyzer": "ik_smart",
  51. "fielddata": true
  52. },
  53. "colunms":{
  54. "type": "nested",
  55. "properties": {
  56. "colunm_name":{
  57. "type": "text",
  58. "analyzer": "ik_smart",
  59. "fielddata": true
  60. },
  61. "colunm_count":{
  62. "type": "long"
  63. },
  64. "colunm_read":{
  65. "type": "long"
  66. }
  67. }
  68. },
  69. "blogstar_vote":{
  70. "type": "object",
  71. "properties": {
  72. "user_id":{
  73. "type": "keyword"
  74. },
  75. "user_addr":{
  76. "type": "keyword"
  77. },
  78. "user_name":{
  79. "type": "keyword"
  80. },
  81. "user_number":{
  82. "type": "long"
  83. }
  84. }
  85. }
  86. }
  87. }
  88. }
  89. }

数据字段不是很多,我这里就不再做详细分析了,这里需要注意,我们的文本使用的大多都是中文,所以我们需要使用中文的分词起IK_SMART。

数据分析

当我们成功抓取到数据并存储以后呢,我们需要对我们的数据加以分析才能够发挥出它的作用。

  1. #! /usr/bin/env python3
  2. # -*- coding:utf-8 -*-
  3. import elasticsearch
  4. class BlogStar2018(object):
  5. index = 'blogstar2018'
  6. es = elasticsearch.Elasticsearch(['sc.es.com:80'])
  7. @classmethod
  8. def index_doc(cls,body):
  9. cls.es.index(index=cls.index, doc_type=cls.index, body=body)
  10. @classmethod
  11. def match_all(cls):
  12. body = {
  13. "query": {
  14. "match_all": { }
  15. },
  16. "size": 1000
  17. }
  18. try:
  19. res = cls.es.search(index=cls.index, doc_type=cls.index, body=body)
  20. except Exception as e:
  21. print('查询失败 ', str(e))
  22. res = None
  23. return res
  24. @classmethod
  25. def count_doc(cls):
  26. try:
  27. res = cls.es.count(index=cls.index, doc_type=cls.index,)
  28. except Exception as e:
  29. print('查询失败 ', str(e))
  30. return 0
  31. return res['count']
  32. @classmethod
  33. def stats_aggs(cls,field):
  34. body = {
  35. "size": 0,
  36. "aggs": {
  37. "stats_"+field: {
  38. "stats": {
  39. "field": field
  40. }
  41. }
  42. }
  43. }
  44. try:
  45. res = cls.es.search(index=cls.index, doc_type=cls.index, body=body)
  46. except Exception as e:
  47. print('查询失败 ', str(e))
  48. res = None
  49. return res
  50. @classmethod
  51. def term_aggs(cls,field,size=10):
  52. body = {
  53. "size": 0,
  54. "aggs": {
  55. "term_"+field: {
  56. "terms": {
  57. "field": field,
  58. "size": size,
  59. "order": {
  60. "_key": "desc"
  61. }
  62. }
  63. }
  64. }
  65. }
  66. try:
  67. res = cls.es.search(index=cls.index, doc_type=cls.index, body=body)
  68. except Exception as e:
  69. print('查询失败 ', str(e))
  70. res = None
  71. return res
  72. @classmethod
  73. def term_query(cls,field,value):
  74. body = {
  75. "query": {
  76. "bool": {
  77. "filter": {
  78. "term": {
  79. field: value
  80. }
  81. }
  82. }
  83. }
  84. }
  85. try:
  86. res = cls.es.search(index=cls.index, doc_type=cls.index, body=body)
  87. except Exception as e:
  88. print('查询失败 ', str(e))
  89. res = None
  90. return res
  91. @classmethod
  92. def username_term_query(cls,field,value):
  93. body = {
  94. "query": {
  95. "bool": {
  96. "filter": {
  97. "term": {
  98. field: value
  99. }
  100. }
  101. }
  102. },
  103. "_source": ["blogstar_vote.user_name"]
  104. }
  105. try:
  106. res = cls.es.search(index=cls.index, doc_type=cls.index, body=body)
  107. except Exception as e:
  108. print('查询失败 ', str(e))
  109. res = None
  110. return res
  111. @classmethod
  112. def stat_colunm_name(cls):
  113. body = {
  114. "aggs": {
  115. "colunms": {
  116. "nested": {
  117. "path": "colunms"
  118. },
  119. "aggs": {
  120. "colunm_name": {
  121. "terms": {
  122. "field": "colunms.colunm_name",
  123. "size": 1000
  124. }
  125. }
  126. }
  127. }
  128. }
  129. }
  130. try:
  131. res = cls.es.search(index=cls.index, doc_type=cls.index, body=body)
  132. except Exception as e:
  133. print('查询失败 ', str(e))
  134. res = None
  135. return res

blogstar2018_analyzer.py

  1. #! /usr/bin/env python3
  2. # -*- coding:utf-8 -*-
  3. import sys
  4. sys.path.append('../..')
  5. import json
  6. import re
  7. from backend.models.es.BlogStar2018 import BlogStar2018
  8. from pyecharts import Bar,WordCloud
  9. if __name__ == '__main__':
  10. # field_dict = {'original':'原创','fans':'粉丝','star':'喜欢','comment':'评论','level':'等级','visit':'访问','score':'积分','rank':'排名','blogstar_vote.user_number':'投票'}
  11. #
  12. # print('报名总人数:',BlogStar2018.count_doc())
  13. # field_stats_dict = {}
  14. # for field in field_dict.keys():
  15. # res = BlogStar2018.stats_aggs(field)
  16. # if res:
  17. # field_stats_dict[field] = {
  18. # 'max': int(res['aggregations']['stats_'+field]['max']),
  19. # 'min': int(res['aggregations']['stats_'+field]['min']),
  20. # 'avg': int(res['aggregations']['stats_'+field]['avg']),
  21. # 'sum': int(res['aggregations']['stats_'+field]['sum'])
  22. # }
  23. # print('指标','|','最大值','|','最小值','|','平均值','|','总计','|','最佳用户列表')
  24. # print('|:------:|:---------:|:---------:|:---------:|:---------:|:-----------:|')
  25. # for field in field_dict.keys():
  26. # print(field_dict[field],'|',field_stats_dict[field]['max'],'|',field_stats_dict[field]['min'],
  27. # '|', field_stats_dict[field]['avg'],'|',field_stats_dict[field]['sum'],
  28. # '|',[hit['_source']['blogstar_vote']['user_name'] for hit in BlogStar2018.username_term_query(field, field_stats_dict[field]['min' if 'rank' == field else 'max'])['hits']['hits']])
  29. #
  30. # level_aggs_res = BlogStar2018.term_aggs('level')
  31. # print('等级','|','人数')
  32. # print('------|-----')
  33. # if level_aggs_res :
  34. # for bucket in level_aggs_res['aggregations']['term_level']['buckets']:
  35. # print(bucket['key'],'|',bucket['doc_count'])
  36. #
  37. # print('勋章','|','人数')
  38. # print('------|-----')
  39. # medal_aggs_res = BlogStar2018.term_aggs('medal')
  40. # if medal_aggs_res:
  41. # for bucket in medal_aggs_res['aggregations']['term_medal']['buckets']:
  42. # print(bucket['key'],'|',bucket['doc_count'])
  43. white_hotkey_list = ['分布式','算法','嵌入式','前端','机器学习','公众号','微信公众号','数据库','计算机','人工智能','后端','框架','数据结构','程序','大数据',
  44. '程序设计','计算机网络','网络','视觉','数据','图像','小程序','图像分析','操作系统','架构','安卓','微服务','爬虫','设计模式']
  45. wordcloud = WordCloud(width=1300, height=900)
  46. name = []
  47. value = []
  48. for i,bucket in enumerate(BlogStar2018.stat_colunm_name()['aggregations']['colunms']['colunm_name']['buckets']):
  49. if re.compile(u'[\u4e00-\u9fa5]').search(bucket['key']) :
  50. if bucket['key'] in white_hotkey_list:
  51. name.append(bucket['key'])
  52. value.append(bucket['doc_count'])
  53. elif re.findall('[a-zA-Z]+', bucket['key']) :
  54. if bucket['key'].find('http') == -1 and bucket['key'].find('csdn') == -1 and 'details'!=bucket['key'] and '1&orderby'!=bucket['key']:
  55. name.append(bucket['key'])
  56. value.append(bucket['doc_count'])
  57. wordcloud.add("", name, value, word_size_range=[30, 120])
  58. wordcloud.render('blogstar_csdn.html')

GitHub源代码

感谢您的阅读,新年新气象,祝您,新年快乐,阖家欢乐。

发表评论

表情:
评论列表 (有 0 条评论,319人围观)

还没有评论,来说两句吧...

相关阅读

    相关 CSDN

    ![在这里插入图片描述][20210111222056954.png] 之前看到 CSDN 博客之星评选,羡慕能成为博客之星的大佬们;后来自己也在关注这事,然后努力看书、学习

    相关 CSDN投票地址

    希望各位网友帮忙投下票,每天均可投一票,投票地址《[CSDN博客之星投票地址][CSDN]》,谢谢大家的支持,参选人就职于腾讯,他的博客地址[http://blog.csdn.