Cómo entregamos MVPs de AI en 2 semanas (no 6 meses)
Ingeniería
2026-02-06
Dos semanas. Ese es nuestro objetivo desde la primera llamada hasta el deploy en producción.
No una demo. No un "proof of concept." Producción. Usuarios reales. Dinero real.
La mayoría de las agencias cotizan 3-6 meses para proyectos de AI. Pensamos que es absurdo. En AI, si no estás entregando en días, ya estás atrasado.
Así es exactamente cómo lo hacemos.
Días 1-2: Discovery y Arquitectura
Día 1: Entender el problema real
No construimos lo que los clientes piden. Construimos lo que necesitan.
La mayoría de los founders llegan con una solución: "Quiero un chatbot que haga X." Profundizamos más. ¿Cuál es el resultado de negocio? ¿Cuál es el dolor del usuario? ¿Qué pasa si resolvemos este problema al 80%?
Esa última pregunta mata el scope creep. Perfecto es enemigo de entregado.
Día 2: Arquitectura técnica
Decidimos tres cosas rápido:
- Estrategia de modelo — ¿Qué LLM? ¿Fine-tuned o prompted? ¿Un modelo o un router?
- Pipeline de datos — ¿Dónde está el conocimiento? ¿Cómo lo mantenemos actualizado?
- Superficie de integración — ¿Solo API? ¿UI? ¿Bot de Slack? ¿Voz?
Documentamos esto en un doc de arquitectura de 2 páginas. No un spec de 50 páginas. Si necesita más de 2 páginas para explicar, estamos sobre-construyendo.
Días 3-7: Core AI Pipeline + Integración
Aquí es donde ocurre la magia—y donde la mayoría de los equipos fallan.
La trampa: Los desarrolladores pasan semanas perfeccionando prompts para edge cases que representan el 5% del uso.
Nuestro enfoque: Entrega primero el caso del 80%. Sin excusas.
Construimos el pipeline core:
- Sistema de retrieval (si es RAG)
- Orquestación de agentes (si es multi-step)
- Prompts base con control de versiones
- Framework de evaluación para medir calidad
El framework de evaluación no es negociable. No puedes mejorar lo que no puedes medir. Probamos contra escenarios reales de usuarios, no benchmarks sintéticos.
Control de costos desde el día uno
Las features de AI pueden explotar presupuestos rápido. Incorporamos:
- Presupuestos de tokens por request
- Caching para queries repetidas
- Fallbacks de modelos (modelos más baratos para queries simples)
- Dashboards de analytics de uso
Hemos visto startups gastar $10K/mes en costos de API porque no pensaron en esto antes. No seas ese startup.
UI/Integración corre en paralelo
Mientras se construye el pipeline de AI, simultáneamente construimos:
- Componentes React/Vue con streaming
- Endpoints de API bien documentados
- Interfaz de usuario con prompts guiados
Sin cascada. Todo se mueve junto.
Días 8-10: Testing y Hardening
Haz red team a tu AI
Antes del lanzamiento, intentamos romperla:
- Intentos de prompt injection
- Queries de edge cases
- Tests de estrés de alto volumen
- Inputs adversarios
Encontramos los modos de falla y decidimos: arreglar, proteger o aceptar.
Algunos edge cases no valen la pena arreglar. Si 0.1% de las queries golpean un edge case raro, una respuesta de "No estoy seguro de eso" está bien. Entrégalo.
Observabilidad en producción
Configuramos:
- Logging de request/response (anonimizado)
- Tracking de errores con contexto
- Métricas de rendimiento
- Tracking de costos por feature
Cuando algo se rompe en producción (y lo hará), necesitamos debuggear rápido.
Días 11-14: Lanzamiento e Iteración
Soft launch para usuarios reales
No beta testers. Usuarios reales con problemas reales.
Observamos métricas obsesivamente:
- Tasas de completación de tareas
- Patrones de reintento de usuarios (señal de confusión)
- Tasas de error por categoría
- Costo por interacción exitosa
Velocidad de iteración
Post-lanzamiento, podemos entregar mejoras en horas, no días. Porque construimos:
- Versionado de prompts con A/B testing
- Feature flags para nuevas capacidades
- Loops de feedback para capturar correcciones de usuarios
Por qué esto funciona (y por qué otros tardan más)
Nos saltamos las reuniones
Sin actualizaciones de estado semanales. Sin steering committees. Actualizaciones async diarias, demos diarias, acceso directo por Slack a ingenieros.
Usamos tecnología aburrida
Nuestro stack es deliberadamente poco sexy:
- TypeScript en todos lados
- PostgreSQL con pgvector
- Redis para caching
- Infraestructura cloud estándar
Sin plataformas custom de ML ops. Sin clusters de Kubernetes para un MVP. Añadiremos complejidad cuando la escala lo demande.
Contratamos ingenieros T-shaped
Todos en nuestro equipo pueden:
- Escribir código de producción
- Entender comportamiento de LLMs
- Debuggear un incidente de producción a las 2am
No tenemos "prompt engineers" separados de "backend engineers." Ese handoff mata la velocidad.
Cuándo esto no funciona
Seremos honestos—el desarrollo rápido de AI no es para todos.
No nos contrates si:
- Necesitas compliance regulatorio desde el día uno (salud, finanzas)
- Tu caso de uso requiere 99.9% de precisión
- No tienes métricas de éxito claras
- Tu organización no puede tomar decisiones rápido
Para estos casos, necesitas un enfoque más lento y metódico. Está bien. Solo no pretendas que puedes moverte rápido si no puedes.
El verdadero secreto
La velocidad viene de decir no.
No a features que no son core. No a perfecto antes de entregado. No a reviews de stakeholders que añaden semanas. No a construir cuando comprar funciona.
Cada "no" es un día ahorrado.
Construyamos algo
Si vas a levantar en los próximos 6 meses y necesitas AI en tu producto—no tienes tiempo para descifrar esto tú mismo.
Hemos entregado 11 productos de AI en el último año. Sabemos qué funciona.
Reserva 20 minutos con nosotros. Te diremos si somos un fit, y si no, te señalaremos la dirección correcta.
Sin sales deck. Solo conversación real sobre lo que necesitas.
La próxima semana: Cómo evaluamos vendors de AI (y por qué la mayoría son basura)
Written by Dandelion Labs