🧪 Skills
Reddit 主题洞察
输入研究主题,自动采集 Reddit 讨论,提炼爆款角度,产出 X 推文、小红书笔记、公众号文章三平台成品。7 步流水线:需求收集 → 关键词设计 → 数据
v1.0.0
Description
name: reddit-topic-insight description: 输入研究主题,自动采集 Reddit 讨论,提炼爆款角度,产出 X 推文、小红书笔记、公众号文章三平台成品。7 步流水线:需求收集 → 关键词设计 → 数据采集 → 详情获取 → 角度规划 → 成品生产 → 合并输出。
Reddit 主题洞察 Skill
从 Reddit 社区讨论中挖掘爆款内容角度,自动产出三平台(X / 小红书 / 公众号)成品内容。
触发条件
当用户:
- 提及「Reddit 研究」「Reddit 洞察」「Reddit 话题」
- 想从 Reddit 挖掘内容角度或爆款灵感
- 需要基于 Reddit 讨论产出多平台内容
- 使用类似「分析 Reddit 上关于 XX 的讨论」的表述
设计原则
| 原则 | 说明 |
|---|---|
| 确定性 → 脚本 | 数据采集、排序去重、内容合并等确定性操作使用 Python 脚本 |
| 创造性 → AI | 关键词设计、角度规划、内容创作等创造性操作由 AI SubAgent 完成 |
| 上下文隔离 | SubAgent 只接收必要信息、只返回极简结果 |
| 主 Agent 保护 | 主 Agent 不读 piece 文件,避免上下文膨胀 |
| 断点恢复 | progress.json 记录流水线进度,支持随时中断恢复 |
7 步流水线
┌─────────────────────────────────────────────────────┐
│ Step 1: 需求收集 │
│ 初始化运行目录 + progress.json 断点恢复 │
├─────────────────────────────────────────────────────┤
│ Step 2: 关键词设计 [AI 创造性] │
│ 5 个英文关键词:核心/同义/教程/经验/痛点 │
├─────────────────────────────────────────────────────┤
│ Step 3: 数据采集 [Python 脚本] │
│ reddit_collector.py → posts_raw.json │
├─────────────────────────────────────────────────────┤
│ Step 4: 详情获取 [Python 脚本] │
│ reddit_detail_fetcher.py → posts_detail.json │
├─────────────────────────────────────────────────────┤
│ Step 5: 角度规划 [AI 创造性] │
│ 单 SubAgent → 10 个角度 × 10 种文章类型 │
├─────────────────────────────────────────────────────┤
│ Step 6: 成品生产 [AI 创造性] │
│ 5 SubAgent × 3 轮(2+2+1)并行 │
│ 每角度 → X 推文 + 小红书笔记 + 公众号文章 │
├─────────────────────────────────────────────────────┤
│ Step 7: 合并输出 [Python 脚本] │
│ content_merger.py → content.md + 来源表格 │
└─────────────────────────────────────────────────────┘
执行流程
Step 1: 需求收集
- 检查运行目录下是否存在
progress.json - 若存在:读取进度,从中断步骤恢复
- 若不存在:向用户确认研究主题和目标受众
- 创建
runs/<topic-slug>/目录 - 初始化
progress.json
Step 2: 关键词设计
AI 生成 5 个英文搜索关键词,覆盖:
- 🎯 核心词(锚定词,必须保留)
- 🔄 同义词 / 近义词
- 📚 教程 / How-to 类
- 💡 经验 / 最佳实践类
- 😫 痛点 / 问题类
输出 → keywords.json
Step 3: 数据采集
python3 scripts/python/reddit_collector.py \
--keywords-file runs/<slug>/keywords.json \
--output runs/<slug>/posts_raw.json \
--config config/default.json
Step 4: 详情获取
python3 scripts/python/reddit_detail_fetcher.py \
--input runs/<slug>/posts_raw.json \
--output runs/<slug>/posts_detail.json \
--config config/default.json
Step 5: 角度规划
单 SubAgent 读取帖子摘要 → 规划 10 个不重复角度 → 匹配文章类型 → angles.json
Step 6: 成品生产
5 个 SubAgent 分 3 轮并行(2+2+1),每角度产出三平台成品 → pieces/angle-{n}.md
Step 7: 合并输出
python3 scripts/python/content_merger.py \
--pieces-dir runs/<slug>/pieces \
--posts-file runs/<slug>/posts_detail.json \
--output runs/<slug>/content.md
运行目录结构
每次运行产生以下文件:
runs/<topic-slug>/
├── progress.json # 流水线进度
├── keywords.json # 5 个关键词
├── posts_raw.json # 原始帖子列表
├── posts_detail.json # 帖子详情 + 评论
├── angles.json # 10 个角度规划
├── pieces/ # 各角度成品
│ ├── angle-01.md
│ ├── angle-02.md
│ └── ...
└── content.md # 最终合并输出
配置
默认配置文件:config/default.json
可选环境变量(用于 Reddit API 认证,提高速率限制):
REDDIT_CLIENT_ID=your_client_id
REDDIT_CLIENT_SECRET=your_client_secret
脚本依赖
仅需 requests 库:
pip install requests
参考模板
Reviews (0)
Sign in to write a review.
No reviews yet. Be the first to review!
Comments (0)
No comments yet. Be the first to share your thoughts!