📊 数据处理 Reddit

一天做出 AI 招聘 3D 地球:Cowork 负责研究、抓取、地理编码和 PRD

作者用 Cowork 把一个模糊想法拆成完整数据产品:公司清单、职位抓取、办公室经纬度、Logo 素材、Supabase 表结构和三份 PRD,随后交给 Claude Code 实现前端。

★★★ 高级 1 day 2026年4月27日
S
Similar-Kangaroo-223 @u/Similar-Kangaroo-223

Built an AI jobs globe using Claude Cowork for research and data preparation

来源
📋

使用场景

作者想回答「AI 工作到底在哪里」这个问题,但需要先收集公司、职位、地点和视觉素材,再定义产品逻辑。

💬

提示词

Help me turn the idea 'nobody knows where AI jobs actually are' into a concrete data product. Curate a master list of AI companies by tier, scrape current AI job listings, geocode office locations, collect company logos, design the database schema, write frontend/logic/data PRDs, and prepare a clean handoff package for Claude Code.

预期结果

Cowork 生成了 1,802 家 AI 公司清单,抓取 15,352 个职位,完成 4,682 个办公室位置的地理编码,收集 1,594 个 Logo,写出 frontend/logic/data 三份 PRD,并创建 Supabase schema、迁移和导入脚本。最终 Claude Code 接手实现 3D 地球前端。

📝

原帖内容

· 2026-04-27

Cowork helped turn a vague AI-jobs hunch into a product plan, curate 1,802 AI companies, scrape 15,352 jobs, geocode 4,682 office locations, gather 1,594 company logos, write a three-document PRD, create the database schema, run migrations, import 21K+ rows, and hand the project off to Claude Code for implementation.