Capítulo 11: De solo a equipo — onboarding AI-First
La metodología funciona para una persona. Pero el valor real aparece cuando todo el equipo la adopta — y ahí es donde la mayoría falla.
La adopción nunca es simultánea
En AutenTIC, la adopción de AI coding agents empezó con 2-3 personas experimentando al mismo tiempo. No fue una decisión organizacional top-down ni un rollout formal. Fue un grupo pequeño probando herramientas, compartiendo resultados, y aprendiendo de los errores. Esa es la ruta que funciona. Los equipos que intentan adoptar AI coding agents como una decisión organizacional de un día para otro chocan con dos barreras que no son técnicas: desconfianza en la calidad del código generado, y resistencia natural al cambio. La solución no es convencer — es demostrar. Y para demostrar, necesitas un caso de éxito interno antes de escalar.Las fases de adopción
Fase 1: El explorador (1 persona, 1-2 semanas)
Una persona del equipo — típicamente quien tiene más curiosidad o experiencia con AI — empieza a usar un AI coding agent en un proyecto real. No en un toy project ni en un hackathon: en trabajo de producción. Qué hace:- Configura el AGENTS.md del proyecto usando el template
- Implementa un feature completo con AI
- Documenta el resultado: tiempo invertido, calidad, problemas encontrados
- El primer caso de éxito (o de fracaso honesto) con datos reales
- Un AGENTS.md funcional que otros pueden reutilizar
- Conocimiento de primera mano sobre qué funciona y qué no
Fase 2: La pareja (2 personas, 2-4 semanas)
El explorador suma a una segunda persona — idealmente alguien con un rol diferente (si el explorador es developer, sumar al PO o al designer; si es designer, sumar un developer). Qué hacen:- Trabajan juntos en un feature usando la cadena de artefactos completa
- El PO o designer produce la spec, el developer la implementa con AI
- Ambos validan que los protocolos funcionan para más de una persona
- Cómo comunicar contexto entre roles (no solo dentro de una sesión)
- Qué información necesita el PO vs. qué necesita el developer
- Si la documentación producida por uno es útil para el otro
Fase 3: El equipo piloto (3-5 personas, 4-8 semanas)
Sumar al resto del equipo técnico. Aquí es donde aparecen los problemas reales de adopción. El kit de onboarding para nuevos miembros:- Lectura obligatoria (30 min): Capítulos 1 y 2 de Blueprint AI-First — el caso de negocio y qué es AI-First
- Setup técnico (1 hora): Instalar la herramienta, clonar el proyecto, verificar que el AGENTS.md carga correctamente
- Primera sesión guiada (2 horas): El explorador hace pair programming con el nuevo miembro usando AI. El nuevo miembro observa el flujo: cómo se prepara el contexto, cómo se dirige la sesión, cómo se valida
- Primera sesión solo (2 horas): El nuevo miembro implementa un feature simple (idealmente un fix o mejora menor) siguiendo el protocolo de features. El explorador está disponible para preguntas
- Retrospectiva (30 min): ¿Qué funcionó? ¿Qué fue confuso? ¿Qué documentación faltaba?
- “Es más rápido hacerlo a mano” — Aparece cuando el feature es simple y el developer es experimentado. Es cierto para features triviales. La respuesta: “prueba con un feature de 3+ archivos y compara”.
- “La AI produce código malo” — Casi siempre es un problema de contexto, no de la AI. Verificar que el AGENTS.md tiene las reglas correctas y que los skills están configurados.
- “No confío en lo que genera” — Legítimo. La respuesta no es “confía” sino “verifica sistemáticamente” — para eso existen los checklists post-implementación.
Fase 4: Adopción completa (equipo entero, ongoing)
La metodología se convierte en el flujo estándar del equipo. Los protocolos están activos. La documentación se mantiene al día. Señales de que la adopción funciona:- El equipo usa el SESSION_LOG sin que nadie lo recuerde
- Los anti-patrones nuevos se agregan al AGENTS.md naturalmente
- Las sesiones de implementación producen resultados consistentes independientemente de quién las ejecute
- El tiempo de onboarding de nuevos miembros baja con cada incorporación
- Solo 1-2 personas usan la metodología y el resto “vibecodeá”
- La documentación no se actualiza después de las sesiones
- Cada developer tiene su propio flujo en vez de seguir los protocolos
- Los mismos errores se repiten porque nadie los documenta
El caso del tech lead de las 11 horas
Este caso es un anti-patrón de onboarding. El tech lead recibió acceso a la herramienta pero no al contexto del proyecto — no había AGENTS.md, no había documentación de arquitectura, no había guía de diseño. El resultado: 11 horas construyendo un prompt que un AGENTS.md de 150 líneas hubiera resuelto en segundos. La lección: el onboarding de una persona a AI coding agents en un proyecto existente empieza por la documentación del proyecto, no por la herramienta. Darle a alguien Claude Code sin darle el AGENTS.md es como darle un martillo sin decirle dónde están los clavos.Métricas de adopción
Para saber si la metodología está funcionando en el equipo, medir:| Métrica | Cómo medir | Meta |
|---|---|---|
| Tiempo por feature | Comparar sprints pre y post adopción | Reducción de 30%+ |
| Restarts | ¿Cuántas veces se reinicia una implementación? | Tender a 0 |
| Consistencia de UX | ¿Los features nuevos se ven y se comportan como los existentes? | Sin correcciones de diseño post-merge |
| Calidad de docs | ¿El AGENTS.md y la guía de diseño están al día? | Actualizados en cada sprint |
| Tiempo de onboarding | ¿Cuánto tarda un nuevo miembro en ser productivo con AI? | Menos de 1 día |
Capítulo 12: Costos y herramientas — la decisión pragmática
La metodología es agnóstica. La factura no. Elegir la herramienta correcta para tu equipo es una decisión de costo, no solo de features.
El paisaje en 2026
El mercado de AI coding agents evoluciona mensualmente. Cualquier tabla de precios que escriba aquí puede quedar obsoleta en semanas. Lo que no cambia son los principios para elegir. Dicho esto, así está el panorama a marzo de 2026:Claude Code (Anthropic)
| Plan | Precio | Qué incluye |
|---|---|---|
| Pro | $20/mes | Acceso a Claude Code, límites moderados |
| Max 5x | $100/mes | 5x uso de Pro, acceso a Opus |
| Max 20x | $200/mes | 20x uso de Pro, para uso intensivo diario |
| Team (Standard) | $25/seat/mes | Colaboración, sin Claude Code |
| Team (Premium) | $150/seat/mes | Todo + Claude Code |
| API (pay-as-you-go) | Variable | Sonnet 4.6: 15 por MTok in/out |
Google Antigravity
| Plan | Precio | Qué incluye |
|---|---|---|
| Individual | Gratis (preview) | Acceso a Gemini 3, Claude, GPT-OSS |
| Pro (Google AI) | $20/mes | Límites más altos + créditos |
| Ultra | ~$250/mes | Límites altos, uso intensivo |
Otras herramientas relevantes
| Herramienta | Precio aprox | Modelo | Notas |
|---|---|---|---|
| Cursor | $20/mes (Pro) | IDE (VS Code fork) | Popular, buen balance precio/features |
| Windsurf | $15/mes | IDE | Alternativa económica a Cursor |
| GitHub Copilot | $10/mes (individual) | Extensión de IDE | 15M+ developers, autocompletado más que agente |
| Aider | Gratis (open source) | Terminal | Git-nativo, paga solo API del modelo |
| OpenCode | Gratis (open source) | Terminal | 95K+ GitHub stars, 75+ proveedores LLM |
| Cline | Gratis (open source) | Extensión VS Code | 5M installs, BYOM (trae tu modelo) |
Herramientas BYOM (Bring Your Own Model)
Aider, OpenCode, y Cline son gratuitas como herramientas, pero el costo real es el uso de API del modelo que elijas. Un developer usando Claude Sonnet 4.6 via API a través de estas herramientas gasta aproximadamente $3-8/hora en uso intensivo. Con Opus, 5-10x más.Cómo elegir: el framework de decisión
La decisión depende de tres variables: tamaño del equipo, presupuesto mensual, y nivel de experiencia.Para 1 persona (solopreneur, freelancer)
Si el presupuesto no es problema: Claude Code Max 5x ($100/mes). Es la herramienta más capaz y la metodología se desarrolló principalmente con ella. Si el presupuesto importa: Claude Code Pro (3/MTok), controlando el gasto por sesión. Opción experimental: Antigravity gratis da acceso a Opus, pero la estabilidad de las quotas es incierta.Para equipo de 2-5 personas
Costo con Claude Code Team Premium: 750/mes. Significativo pero justificable si la productividad mejora 30%+. Alternativa mixta: 1-2 seats Premium (20) para PO/designers que usan la herramienta ocasionalmente. Total: $340-360/mes. Alternativa económica: Antigravity gratis o BYOM tools para todo el equipo, con un presupuesto compartido de API. Total: variable, pero típicamente $200-400/mes para 5 personas con uso moderado.Para equipo de 5+ personas
A esta escala, el costo por seat se vuelve el factor dominante. Evaluar:- Claude Code Enterprise: Precios custom, incluye compliance, SSO, auditing
- Antigravity Team: Precios por definir, potencialmente más económico
- BYOM + API compartida: Máximo control de costos, mínimo lock-in
El principio que no cambia
Independientemente de la herramienta que elijas: La metodología es agnóstica. El AGENTS.md funciona en Claude Code, Antigravity, Cursor, Aider, o lo que venga después. Los protocolos de UX, cambios, cierre, y features no dependen de ninguna herramienta. La guía de diseño es un archivo markdown que cualquier agente puede leer. Invierte en contexto, no solo en herramientas. Un AGENTS.md bien escrito con un plan Pro de 200/mes sin documentación. La herramienta más cara del mundo no compensa la falta de contexto — el caso del tech lead (11 horas) lo demuestra. Empieza barato, escala con evidencia. Pro ($20/mes) o incluso herramientas gratuitas son suficientes para validar la metodología. Solo escala el gasto cuando tienes datos que justifiquen la inversión: “con Max 5x implementamos features 2x más rápido que con Pro, el ROI es positivo.”Herramientas complementarias (todas gratuitas)
Blueprint AI-First no solo usa AI coding agents. Estas herramientas complementarias son parte del ecosistema y todas tienen tier gratuito:| Herramienta | Función | Costo |
|---|---|---|
| Notion | Gestión de producto (PRDs, backlog, sprints) | Gratis para uso individual |
| NotebookLM | Consulta en lenguaje natural sobre la documentación | Gratis |
| Docusaurus | Sitio web de documentación de la metodología | Gratis (open source, deploy en Vercel gratis) |
| GitHub/GitLab | Control de versiones + CI/CD | Gratis para repos privados |
Resumen: la tabla de decisión
| Tu situación | Herramienta recomendada | Costo/mes |
|---|---|---|
| Empezando solo, presupuesto limitado | Claude Pro o BYOM + API | $20-50 |
| Solo, uso intensivo diario | Claude Max 5x | $100 |
| Equipo 2-3, evaluando | Mix de Pro + 1 Premium | $190-340 |
| Equipo 3-5, adopción seria | Claude Team Premium o Enterprise | $450-750 |
| Equipo 5+, escala | Enterprise o BYOM con API compartida | Custom |
| Experimentando sin costo | Antigravity gratis (con cautela) + BYOM | $0 (+ API variable) |