Reddit Scraper 是一个强大的数据采集工具,可以从公开的 Reddit 页面采集帖子和评论。无需登录,只需输入 Reddit 链接或关键词,即可获取完整的帖子和评论数据,包括所有关键元数据。
| 字段 | 说明 | 示例 |
|---|---|---|
| id | 帖子 ID(Reddit 格式) | t3_vwi6jx |
| parsedId | 解析后的帖子 ID | vwi6jx |
| url | 帖子链接 | https://www.reddit.com/r/pasta/comments/vwi6jx/... |
| title | 帖子标题 | Pasta Peperoni and Ricotta cheese... |
| body | 帖子正文 | null(如果是视频帖子) |
| username | 发布者用户名 | Cooking_Vito_e_Daisy |
| userId | 发布者 ID | t2_nuyl7btq |
| communityName | 子版块名称 | r/pasta |
| createdAt | 发布时间 | 2022-07-11T13:15:17Z |
| scrapedAt | 采集时间 | 2026-05-12T05:53:14.941732Z |
| upVotes | 投票数 | 302 |
| upVoteRatio | 投票比例 | 0.99 |
| numberOfComments | 评论数 | 21 |
| flair | 帖子标签 | Homemade Dish |
| isVideo | 是否为视频 | true |
| videoUrl | 视频 URL | https://v.redd.it/htn04py9vxa91/DASH_1080.mp4 |
| thumbnailUrl | 缩略图 URL | https://b.thumbs.redditmedia.com/nJH9DcMFOlQN4PF.jpg |
| imageUrls | 图片 URL 数组 | [] |
| over18 | 是否为 NSFW | false |
| isAd | 是否为广告 | false |
| authorFlair | 作者标签 | null |
| category | 分类 | pasta |
| html | HTML 内容 | null |
| 字段 | 说明 | 示例 |
|---|---|---|
| id | 评论 ID(Reddit 格式) | t1_ifpvu1o |
| parsedId | 解析后的评论 ID | ifpvu1o |
| url | 评论链接 | https://www.reddit.com/r/pasta/comments/vwi6jx/.../ifpvu1o/ |
| postId | 所属帖子 ID | t3_vwi6jx |
| parentId | 父级 ID(帖子或评论) | t3_vwi6jx |
| body | 评论内容 | For homemade dishes such as lasagna... |
| username | 评论者用户名 | AutoModerator |
| userId | 评论者 ID | t2_12345678 |
| communityName | 子版块名称 | r/pasta |
| createdAt | 评论时间 | 2022-07-11T13:16:00Z |
| scrapedAt | 采集时间 | 2026-05-12T05:53:20.123456Z |
| upVotes | 评论得分 | 1 |
| numberOfreplies | 回复数 | 0 |
| dataType | 数据类型 | comment |
| html | HTML 内容 | For homemade dishes... |
| over18 | 是否为 NSFW | false |
| isAd | 是否为广告 | false |
输入一个或多个 Reddit 链接,采集该链接的所有帖子和评论。
支持的 URL 类型:
https://www.reddit.com/r/pasta/comments/vwi6jx/pasta_peperoni_and_ricotta_cheese_how_to_make/https://www.reddit.com/r/webscraping/https://www.reddit.com/r/webscraping/new/优点:
输入关键词和可选的子版块,搜索 Reddit 并采集结果。
参数:
keyword — 搜索关键词(必需)community — 限制搜索的子版块,例如 r/webscraping(可选)sort — 排序方式:Hot、New、Top、Rising、Relevance、Commentstime — 时间过滤:Hour、Day、Week、Month、Year、AllincludeNSFW — 包含 NSFW 内容(默认:true)skipComments — 仅返回帖子,跳过评论(默认:false)maxItems — 最大返回行数maxPosts — 最大帖子数maxComments — 每个帖子的最大评论数优点:
| 参数 | 类型 | 必需 | 说明 | 示例 |
|---|---|---|---|---|
| url | string | 否 | Reddit 链接(优先级高于关键词) | https://www.reddit.com/r/pasta/... |
| keyword | string | 否 | 搜索关键词 | webscraping |
| community | string | 否 | 限制搜索的子版块 | r/webscraping |
| 参数 | 类型 | 默认值 | 说明 | 可选值 |
|---|---|---|---|---|
| sort | string | new | 排序方式 | hot, new, top, rising, relevance, comments |
| time | string | all | 时间过滤 | hour, day, week, month, year, all |
| includeNSFW | boolean | true | 包含 NSFW 内容 | true, false |
| 参数 | 类型 | 默认值 | 说明 |
|---|---|---|---|
| maxItems | number | - | 最大返回行数(帖子+评论) |
| maxPostCount | number | - | 最大帖子数 |
| maxComments | number | - | 每个帖子的最大评论数 |
| skipComments | boolean | false | 仅返回帖子,跳过评论 |
说明:
说明:
说明:
采集速度取决于数据量和网络连接。通常情况下,采集 100 个帖子及其评论需要 5-10 分钟。
没有硬性限制,但建议每次采集不超过 10,000 行数据,以保证性能和稳定性。
可以。使用时间过滤参数,可以采集任何时间范围的数据。
不可以。只能采集公开的 Reddit 页面和子版块。
探索商店中更多热门采集工具
by Odin Kael
用于按关键词抓取 Product Hunt 上的热门产品,并输出结构化表格数据。
by Odin Kael
A powerful course scraper for extracting online courses from Coursera and EDX platforms.
by Odin Kael
稳定爬取 Indeed/LinkedIn 等招聘平台职位,支持远程 / 全职 / 薪资筛选、自定义代理、多维度精准搜索,一键部署即可获取海外职位数据。
by Odin Kael
从 Yahoo Finance 获取全球股票行情数据,支持美股、港股、A股三大市场。可提取历史K线数据、公司信息、财务报表、分红拆股历史、分析师评级等全面数据。零代码操作,一键导出 CSV 或 JSON 格式。 美股:苹果(AAPL)、微软(MSFT)、谷歌(GOOGL)、特斯拉(TSLA)等 港股:腾讯控股(0700.HK)、阿里巴巴(9988.HK)等 A 股(中国大陆):贵州茅台(600519.SS)、中国平安(000001.SZ)等