Cowork helped turn a vague AI-jobs hunch into a product plan, curate 1,802 AI companies, scrape 15,352 jobs, geocode 4,682 office locations, gather 1,594 company logos, write a three-document PRD, create the database schema, run migrations, import 21K+ rows, and hand the project off to Claude Code for implementation.
📊 Procesamiento de Datos Reddit
Globo de empleos de IA en un día: Cowork para research, scraping, geocoding y PRD
El autor usó Cowork para convertir una intuición de mercado en un producto de datos: lista de empresas, scraping de empleos, geocoding de oficinas, logos, esquema Supabase y tres PRD antes de pasar a Claude Code.
★★★ Avanzado 1 day 27 de abril de 2026
S
Similar-Kangaroo-223
@u/Similar-Kangaroo-223
Built an AI jobs globe using Claude Cowork for research and data preparation
📋
Escenario
El autor quería responder dónde están realmente los empleos de IA, pero primero necesitaba datos de empresas, ofertas, oficinas geocodificadas, assets visuales y requisitos de producto.
💬
Prompt
Help me turn the idea 'nobody knows where AI jobs actually are' into a concrete data product. Curate a master list of AI companies by tier, scrape current AI job listings, geocode office locations, collect company logos, design the database schema, write frontend/logic/data PRDs, and prepare a clean handoff package for Claude Code.
✨
Resultado Esperado
Cowork produjo un dataset de 1.802 empresas, scrapeó 15.352 empleos, geocodificó 4.682 oficinas, reunió 1.594 logos, escribió PRD de frontend/logic/data y creó el esquema, migración e importador de Supabase. Claude Code construyó luego el frontend del globo 3D.