脚本之家,脚本语言编程技术及教程分享平台!
分类导航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服务器之家 - 脚本之家 - Python - 基于 Scrapy 框架的微博评论爬虫实战

基于 Scrapy 框架的微博评论爬虫实战

2021-11-08 23:00志斌的python笔记志斌 Python

spiders是存放爬虫程序的文件夹,将写好的爬虫程序放到该文件夹中。items用来定义数据,类似于字典的功能。settings是设置文件,包含爬虫项目的设置信息。

基于 Scrapy 框架的微博评论爬虫实战

大家好,我是志斌~

之前志斌写过的微博爬虫是基于Requests的,今天来跟大家分享一下,基于Scrapy的微博爬虫应该怎么写。

之前分享过一个Requests对微博评论的爬虫,已经对页面进行了全面的分析,本文主要注重对数据采集、存储和文件配置进行分析讲解。

一Scrapy简介

首先,我们需要对Scrapy框架有一个简单的了解,不然在你书写代码的时候会非常的麻烦。

01安装

使用pip对Scrapy进行安装,代码如下:

  1. pipinstallscrapy

02创建项目

安装好Scrapy框架之后,我们需要通过终端,来创建一个Scrapy项目,命令如下:

  1. scrapystartprojectweibo

创建好后的项目结构,如下图:

基于 Scrapy 框架的微博评论爬虫实战

这里我们来简单介绍一下结构中我们用到的部分的作用,有助于我们后面书写代码。

spiders是存放爬虫程序的文件夹,将写好的爬虫程序放到该文件夹中。items用来定义数据,类似于字典的功能。settings是设置文件,包含爬虫项目的设置信息。pipelines用来对items中的数据进行进一步处理,如:清洗、存储等。

二数据采集

经过上面的简单介绍,我们现在对Scrapy框架有了简单的了解,下面我们开始写数据采集部分的代码。

01定义数据

首先,我们对数据存储的网页进行观察,方便我们对获取数据进行定义

基于 Scrapy 框架的微博评论爬虫实战

通过对网页中数据存储的形式进行观察后,items.py中对数据的定义方式为:

  1. data=scrapy.Field()

02编辑爬虫

接下来我们在spiders文件夹里面创建一个weibo.py爬虫程序用以书写请求的爬虫代码

基于 Scrapy 框架的微博评论爬虫实战

代码如下:

  1. importscrapy
  2. classWeiboSpider(scrapy.Spider):
  3. name='weibo'#用于启动微博程序
  4. allowed_domains=['m.weibo.cn']#定义爬虫爬取网站的域名
  5. start_urls=['https://m.weibo.cn/comments/hotflow?id=4700480024348767&mid=4700480024348767&max_id_type=0']#定义起始网页的网址
  6. foriinres['data']['data']:
  7. weibo_item=WeiboItem()
  8. weibo_item['data']=re.sub(r'<[^>]*>','',i['text'])
  9. #start_url=['https://m.weibo.cn/comments/hotflow?id=4700480024348767&mid=4700480024348767&'+str(max_id)+'&max_id_type=0']
  10. yieldweibo_item#将数据回传给items

03遍历爬取

学过Requests对微博评论进行爬虫的朋友应该知道,微博评论的URL构造方式,这里我直接展示构造代码:

  1. max_id_type=res['data']['max_id_type']
  2. ifint(max_id_type)==1:
  3. new_url='https://m.weibo.cn/comments/hotflow?id=4700480024348767&mid=4700480024348767&max_id='+str(
  4. max_id)+'&max_id_type=1'
  5. else:
  6. new_url='https://m.weibo.cn/comments/hotflow?id=4700480024348767&mid=4700480024348767&max_id='+str(
  7. max_id)+'&max_id_type=0'

三数据存储

光爬取下来数据是不行的,我们还需要对数据进行存储,这里我采用的是csv文件,来对评论数据进行存储,代码如下:

  1. classCsvItemExporterPipeline(object):
  2. def__init__(self):
  3. #创建接收文件,初始化exporter属性
  4. self.file=open('text.csv','ab')
  5. self.exporter=CsvItemExporter(self.file,fields_to_export=['data'])
  6. self.exporter.start_exporting()

四程序配置

光写上面的代码是无法爬取到评论的,因为我们还没有对整个程序进行有效的配置,下面我们就在settings.py里面进行配置。

01不遵循robots协议

需要对robts协议的遵守进行修改,如果我们遵循网页的robots协议的话,那无法进行爬取,代码如下:

  1. #Obeyrobots.txtrules
  2. ROBOTSTXT_OBEY=False

02使用自定义cookie

我们知道,想要爬取微博评论,需要带上自己的cookie用以信息校验,因为我们的cookie是在headers中包裹着的,所以我们需要将COOKIES_ENABLED改为False,代码如下:

  1. #Disablecookies(enabledbydefault)
  2. COOKIES_ENABLED=False

03打开管道

想要进行数据存储,还需要在配置中,打开通道,用以数据传输,代码如下:

  1. #Configureitempipelines
  2. #Seehttps://docs.scrapy.org/en/latest/topics/item-pipeline.html
  3. ITEM_PIPELINES={
  4. 'weibo.pipelines.CsvItemExporterPipeline':1,
  5. 'weibo.pipelines.WeiboPipeline':300,
  6. }

五启动程序

我们在spiders同级的的目录下创建一个wb_main.py文件,便于我们在编辑器中启动程序,代码如下:

  1. fromscrapyimportcmdline
  2. #导入cmdline模块,可以实现控制终端命令行。
  3. cmdline.execute(['scrapy','crawl','weibo'])
  4. #用execute()方法,输入运行scrapy的命令。

六总结

1. 本文详细的介绍了,如何用Scrapy框架来对微博评论进行爬取,建议大家动手实操一下,便于理解。

2. 本文仅供学习参考,不做它用。

原文链接:https://mp.weixin.qq.com/s/DVuCfxH-AJUO2tZLdnqnyA

延伸 · 阅读

精彩推荐