Skip to content

mogan1999/sse_spider

Repository files navigation

Tieba_Spider

贴吧爬虫。

依赖参考

Python >= 3.6

mysql >= 5.5

beautifulsoup4 >= 4.6.0

scrapy == 2.4.1

mysqlclient >= 1.3.10

单个吧爬取使用方法

先打开config.json文件,在其中配置好数据库的域名、用户名和密码。接着直接运行命令即可:

scrapy run <贴吧名> <数据库名> <选项>

其中贴吧名不含末尾的“吧”字,而数据库名则是要存入的数据库名字,数据库在爬取前会被创建。例如

scrapy run 广州大学 广州大学data

但若要在控制台输入中文(非ASCII字符),请确保控制台编码为UTF8。

若在config.json里面已经配置好贴吧名和对应数据库名,则可以忽略数据库名。若忽略贴吧名,则爬取config.json里面DEFAULT的数据库。

批量爬取使用方法

在主目录下运行generate_sh.py

python generate_sh.py

会得到一个类似“getdata20231125.sh”这样的脚本文件,使用screen打开后台终端,运行脚本(脚本运行前确保激活虚拟环境“tieba"和切换到工作目录)

conda activate tieba && cd ./Tieba_Spider && bash getdata20231125.sh

特别提醒 任务一旦断开,不可继续进行。请使用后台任务或者screen命令等。

选项说明

短形式 长形式 参数个数 作用 举例
-p --pages 2 设定爬取帖子的开始页和结束页 scrapy run ... -p 2 5
-g --good_only 0 只爬精品帖 scrapy run ... -g
-s --see_lz 0 只看楼主,即不爬非楼主的楼层 scrapy run ... -s
-f --filter 1 设定帖子过滤函数名(见filter.py) scrapy run ... -f thread_filter

举例:

scrapy run 广州大学 -gs -p 5 12 -f thread_filter

使用只看楼主模式爬广州大学吧精品帖中第5页到第12页的帖子,其中能通过过滤器filter.py中的thread_filter函数的帖子及其内容会被存入数据库。

数据处理

对爬取的数据并非原样入库,会进行一些处理。

  1. 广告楼层会被去掉(右下角有“广告”两字的楼层)。
  2. 加粗和红字效果丢失为纯文本(beautifulsoup的get_text功能)。
  3. 常用表情会转换为文字表达(emotion.json,欢迎补充)。
  4. 图片和视频会变成对应链接(要获取视频链接需要拿到一个302响应)。

数据保存结构

  • thread

为各帖子的一些基本信息。

属性 类型 备注
id BIGINT(12) "http://tieba.baidu.com/p/4778655068" 的ID就是4778655068
title VARCHAR(100)
author VARCHAR(30)
reply_num INT(4) 回复数量(含楼中楼, 不含1楼)
good BOOL 是否为精品帖
create_time VARCHAR(30) 帖子的创建时间
  • post

为各楼层的一些基本信息,包括1楼。

属性 类型 备注
id BIGINT(12) 楼层也有对应ID
floor INT(4) 楼层编号
author VARCHAR(30)
content TEXT 楼层内容
time DATETIME 发布时间
comment_num INT(4) 楼中楼回复数量
thread_id BIGINT(12) 楼层的主体帖子ID,外键
  • comment

楼中楼的一些信息。

属性 类型 备注
id BIGINT(12) 楼中楼也有ID,且和楼层共用
author VARCHAR(30)
content TEXT 楼中楼内容
time DATETIME 发布时间
post_id BIGINT(12) 楼中楼的主体楼层ID,外键

爬取方式决定了comment有可能先于对应的post被爬取,从而外键错误。因此任务开始阶段数据库的外键检测会被关闭。

参考文献

Scrapy 1.0 文档

Scrapy 源代码

Beautiful Soup的用法

Ubuntu/Debian 安装lxml的正确方式

Twisted adbapi 源代码

mysql升级8.0后遇到的坑

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published