贴吧爬虫。
Python >= 3.6
mysql >= 5.5
beautifulsoup4 >= 4.6.0
scrapy == 2.4.1
mysqlclient >= 1.3.10
先打开config.json文件,在其中配置好数据库的域名、用户名和密码。接着直接运行命令即可:
scrapy run <贴吧名> <数据库名> <选项>
其中贴吧名不含末尾的“吧”字,而数据库名则是要存入的数据库名字,数据库在爬取前会被创建。例如
scrapy run 广州大学 广州大学data
但若要在控制台输入中文(非ASCII字符),请确保控制台编码为UTF8。
若在config.json里面已经配置好贴吧名和对应数据库名,则可以忽略数据库名。若忽略贴吧名,则爬取config.json里面DEFAULT的数据库。
在主目录下运行generate_sh.py
python generate_sh.py
会得到一个类似“getdata20231125.sh”这样的脚本文件,使用screen打开后台终端,运行脚本(脚本运行前确保激活虚拟环境“tieba"和切换到工作目录)
conda activate tieba && cd ./Tieba_Spider && bash getdata20231125.sh
特别提醒 任务一旦断开,不可继续进行。请使用后台任务或者screen命令等。
短形式 | 长形式 | 参数个数 | 作用 | 举例 |
---|---|---|---|---|
-p | --pages | 2 | 设定爬取帖子的开始页和结束页 | scrapy run ... -p 2 5 |
-g | --good_only | 0 | 只爬精品帖 | scrapy run ... -g |
-s | --see_lz | 0 | 只看楼主,即不爬非楼主的楼层 | scrapy run ... -s |
-f | --filter | 1 | 设定帖子过滤函数名(见filter.py ) |
scrapy run ... -f thread_filter |
举例:
scrapy run 广州大学 -gs -p 5 12 -f thread_filter
使用只看楼主模式爬广州大学吧精品帖中第5页到第12页的帖子,其中能通过过滤器filter.py
中的thread_filter
函数的帖子及其内容会被存入数据库。
对爬取的数据并非原样入库,会进行一些处理。
- 广告楼层会被去掉(右下角有“广告”两字的楼层)。
- 加粗和红字效果丢失为纯文本(beautifulsoup的get_text功能)。
- 常用表情会转换为文字表达(emotion.json,欢迎补充)。
- 图片和视频会变成对应链接(要获取视频链接需要拿到一个302响应)。
- thread
为各帖子的一些基本信息。
属性 | 类型 | 备注 |
---|---|---|
id | BIGINT(12) | "http://tieba.baidu.com/p/4778655068" 的ID就是4778655068 |
title | VARCHAR(100) | |
author | VARCHAR(30) | |
reply_num | INT(4) | 回复数量(含楼中楼, 不含1楼) |
good | BOOL | 是否为精品帖 |
create_time | VARCHAR(30) | 帖子的创建时间 |
- post
为各楼层的一些基本信息,包括1楼。
属性 | 类型 | 备注 |
---|---|---|
id | BIGINT(12) | 楼层也有对应ID |
floor | INT(4) | 楼层编号 |
author | VARCHAR(30) | |
content | TEXT | 楼层内容 |
time | DATETIME | 发布时间 |
comment_num | INT(4) | 楼中楼回复数量 |
thread_id | BIGINT(12) | 楼层的主体帖子ID,外键 |
- comment
楼中楼的一些信息。
属性 | 类型 | 备注 |
---|---|---|
id | BIGINT(12) | 楼中楼也有ID,且和楼层共用 |
author | VARCHAR(30) | |
content | TEXT | 楼中楼内容 |
time | DATETIME | 发布时间 |
post_id | BIGINT(12) | 楼中楼的主体楼层ID,外键 |
爬取方式决定了comment有可能先于对应的post被爬取,从而外键错误。因此任务开始阶段数据库的外键检测会被关闭。