Los verdaderos artistas lanzan
Bertrand 7 de octubre de 2025

Los verdaderos artistas lanzan

14 min de lectura

Steve Jobs se lo dijo al equipo del Macintosh en enero de 1983. Llevaban meses refinando, debatiendo, puliendo — haciendo de todo excepto terminar. “Real artists ship.” Tres palabras que separaron a quienes hacen cosas de quienes hablan de hacer cosas.

Cuarenta y dos años después, la mayoría de los proyectos de IA siguen sin escucharlas.

El problema del piloto

Las estimaciones del sector muestran de forma consistente que la gran mayoría de los proyectos piloto de IA nunca llegan a producción. Tanto Gartner como IDC han publicado que solo una fracción de las iniciativas de IA en empresas — en muestras globales — avanzan más allá de la fase piloto en los primeros dieciocho meses. El resto permanece en alguna variante de “prueba de concepto”, “fase de evaluación” o “alineamiento de stakeholders” — que es vocabulario corporativo para quedarse quieto.

La tasa es peor entre las pymes. Las empresas más pequeñas carecen de los equipos de ingeniería dedicados y la infraestructura de integración que mueven los pilotos a producción. Entre las microempresas, la conversión de piloto a producción apenas se registra.

Pilot-to-production funnel

No son proyectos fallidos. Son proyectos que nunca intentaron tener éxito. Un piloto no es un producto. Un piloto es un entorno controlado donde el fracaso no tiene consecuencias y el éxito no tiene usuarios. Es teatro con una partida presupuestaria.

Por qué los pilotos no se convierten en productos

Tres razones estructurales. Ninguna es técnica.

La primera es la difusión de la responsabilidad. Un piloto pertenece a todos y a nadie. El equipo de innovación lo propuso. IT aprobó la infraestructura. La unidad de negocio proporcionó el caso de uso. El comité de dirección revisa la actualización trimestral. Cinco grupos implicados. Cero grupos responsables de poner la herramienta en manos de quienes la usarán a diario.

En un despliegue a producción, alguien pone su nombre. Alguien decide que esta herramienta se lanza en esta fecha para estos usuarios. Esa decisión es incómoda. Los pilotos existen para evitarla.

La segunda es la inflación de criterios de éxito. Los pilotos empiezan con metas modestas: “¿Puede el modelo clasificar consultas de clientes con un 85 % de precisión?” El modelo logra un 87 %. Éxito. Pero entonces los criterios cambian. ¿Puede gestionar casos extremos? ¿Puede integrarse con el ERP? ¿Puede procesar consultas en cuatro idiomas? ¿Puede funcionar on-premises? Cada pregunta es razonable. Juntas, forman un bucle infinito de cualificación que asegura que el piloto nunca termine porque la línea de meta sigue moviéndose.

Los datos de encuestas empresariales de múltiples fuentes muestran este patrón con claridad. Entre las empresas que reportan “IA en evaluación”, los periodos de evaluación se extienden rutinariamente más allá de un año. Un año o más evaluando si una herramienta funciona, mientras el equipo que la usaría espera — o, más probablemente, construye un apaño con hojas de cálculo y sigue adelante.

La tercera es el miedo al fracaso de adopción. Esta es la de verdad. Un piloto que sigue siendo piloto no puede fracasar públicamente. Un producto que se lanza a 200 usuarios y queda ignorado es un fracaso visible — en el presupuesto, en las métricas, en las conversaciones de pasillo. El piloto es una cobertura contra la vergüenza. Mantenlo pequeño, mantenlo contenido, mantenlo lejos de la gente que podría rechazarlo.

Pero el rechazo es información. El rechazo te dice lo que la herramienta realmente necesita. Un piloto que funciona durante un año y produce una evaluación positiva no te dice nada sobre si alguien usará la cosa. La adopción es la única métrica que importa, y no se puede medir la adopción sin lanzar.

Lo que “lanzar” significa de verdad

Jobs fue específico. Lanzar no era publicar. Lanzar no era hacer disponible. Lanzar era poner un producto terminado en manos de las personas que lo usarían, en su entorno real, con sus limitaciones reales.

Para herramientas de IA en una pyme europea, lanzar significa:

La herramienta es accesible para las personas para las que fue diseñada — no el equipo de innovación, no el departamento de IT, sino el responsable de compras, el agente de atención al cliente, el coordinador de logística. Los usuarios reales.

La herramienta está integrada en el flujo de trabajo real. No en una pestaña aparte. No con un login nuevo. No en un dashboard que nadie visita. Integrada en el lugar donde ocurre el trabajo.

La herramienta tiene un mecanismo de feedback. Los usuarios pueden reportar qué funciona y qué no, y alguien actúa sobre esos informes en días, no en trimestres.

La herramienta tiene un propietario. Una persona cuyo trabajo incluye asegurar que esta herramienta siga siendo útil. No un comité. No un canal. Un nombre.

En Bluewaves lo llamamos la “prueba de las tres semanas”. Si la herramienta no está en uso diario en las tres semanas siguientes al despliegue, algo falla — no con la herramienta, sino con la arquitectura del despliegue. Tres semanas. No tres meses. No “después de la próxima sesión de formación”. Tres semanas.

El prototipo es el argumento

Leonardo da Vinci llenó cuadernos de ideas. También construyó cosas. La diferencia importaba. Una idea en un cuaderno es especulación. Una idea en el mundo es un argumento — argumenta su propia existencia funcionando o fallando. Ambos resultados son útiles. Solo uno está disponible para la idea que nunca se lanza.

El mismo principio se aplica a cada despliegue de IA. Un modelo en un Jupyter notebook es una hipótesis. Un modelo en producción es un argumento. Argumenta que esta tarea concreta, hecha de esta forma concreta, produce mejores resultados que el método anterior. El argumento es verificable. La hipótesis no.

He construido ocho empresas en seis países. Todas empezaron con un prototipo que se lanzó antes de estar listo. No porque la impaciencia sea una virtud — porque el feedback de usuarios reales es la única entrada que importa, y no se puede obtener desde un entorno piloto.

La primera versión de todo buen producto resulta vergonzosa en retrospectiva. La primera versión de todo buen producto también enseñó a sus creadores más en dos semanas de uso real que en seis meses de pruebas internas.

El coste de no lanzar

Un piloto de IA fallido le cuesta a una pyme entre 10 000 € y 50 000 € en gasto directo, según el tamaño de la empresa y el alcance del proyecto — licencias, computación, horas de consultoría, asignación de tiempo interno. Estas cifras no incluyen el coste de oportunidad — la ventaja competitiva que acumula la empresa que lanza mientras tú evalúas.

Pero el coste real es cultural. Cada piloto que muere enseña a la organización una lección: la IA es experimental. La IA no es para nosotros. La IA es algo con lo que juega el equipo de innovación mientras nosotros hacemos el trabajo de verdad. Esta lección se acumula. Tras el segundo piloto fallido, el tercero se enfrenta a un déficit de credibilidad que ninguna presentación ante comité de dirección puede superar.

Lo inverso también es cierto. Una herramienta que se lanza, que funciona, que la gente usa de verdad — ese único despliegue cambia la relación de la organización con la IA de forma permanente. El equipo que le pone nombre a la herramienta (un indicador fiable de adopción, como Érica ha documentado) se convierte en defensor. El equipo que ve resultados se vuelve curioso. El impulso cultural de un despliegue exitoso vale más que diez evaluaciones de piloto exitosas.

La desventaja europea que no lo es

Existe una narrativa que dice que las empresas europeas son más lentas adoptando IA por la regulación, por la aversión al riesgo, por el conservadurismo cultural. La narrativa es errónea — o, más bien, lo bastante imprecisa como para ser inútil.

Las empresas europeas son más lentas adoptando IA porque hacen demasiados pilotos. Evalúan más tiempo, cualifican con más detalle y construyen casos de negocio más completos antes de comprometerse. No son defectos de carácter. En muchos contextos, son fortalezas. La calidad de la manufactura europea, la estabilidad del sistema financiero europeo, los registros de seguridad de producto europeos — todo esto proviene de una cultura de exhaustividad.

Pero la exhaustividad aplicada a proyectos piloto produce exhaustividad sin lanzamiento. El mismo rigor que asegura que un coche alemán no se avería debería asegurar que un despliegue de IA funciona. En cambio, asegura que el despliegue de IA nunca salga del circuito de pruebas.

La Ley de IA de la UE, que entra en vigor plenamente en fases hasta agosto de 2026, en realidad proporciona un marco para lanzar de forma responsable. El sistema de clasificación de riesgos (Artículo 6) indica exactamente qué nivel de supervisión requiere cada despliegue. Los procedimientos de evaluación de conformidad (Artículos 16-22) definen cómo es “listo para lanzar” en sistemas de alto riesgo. No son obstáculos — son especificaciones. Un ingeniero lee una especificación y construye según ella. Un comité lee una especificación y programa una reunión para hablar de ella.

La regulación es una restricción creativa. Los mejores productos de la historia — desde el Macintosh original hasta el Volkswagen Golf, pasando por el sistema SEPA de pagos de la propia UE — se construyeron dentro de restricciones estrictas. Las restricciones no impiden lanzar. Definen cómo es lanzar.

El riff y la actuación

Hay un momento en la música en directo en que un guitarrista ha ensayado un riff mil veces y aun así duda antes de tocarlo en el escenario. La sala de ensayo es segura. El escenario no. El público oirá cada imperfección. La tentación es ensayar una vez más, refinar una vez más, esperar hasta que sea perfecto.

David Gilmour no espera. Toca. Y las ligeras imperfecciones — el timing humano, la respiración antes del bend — son lo que lo hace real. La versión de estudio es perfecta. La versión en directo es verdadera.

El despliegue de IA funciona igual. El entorno piloto es la sala de ensayo. Producción es el escenario. La herramienta se encontrará con entradas que no predijiste, usuarios que no formaste, flujos de trabajo que no mapeaste. Algunos de esos encuentros producirán resultados imperfectos. Bien. Ahora sabes qué arreglar. No puedes aprenderlo desde la sala de ensayo.

Lo que hacemos en la práctica

En Bluewaves, la metodología de construcción es tres olas de tres semanas cada una. No porque tres semanas sea un número mágico — porque tres semanas es tiempo suficiente para construir algo real y demasiado corto para esconderse en un piloto.

Ola uno: construir y desplegar. La herramienta llega a usuarios reales con tareas reales en las primeras tres semanas. No una demo. No un sandbox. Real.

Ola dos: observar y ajustar. Observar lo que la gente realmente hace con la herramienta. No lo que dicen que harán. Lo que hacen. Ajustar la herramienta basándose en el comportamiento observado, no en las preferencias declaradas.

Ola tres: optimizar y documentar. La herramienta funciona. Ahora hazla más rápida, más precisa, mejor integrada. Documenta lo aprendido para el siguiente despliegue.

Nueve semanas. Tres iteraciones. Un producto desplegado. No perfecto. Desplegado.

La alternativa — el ciclo de evaluación de doce meses, el comité de dirección trimestral, las sesiones de alineamiento de stakeholders — es más cómoda. El nombre de nadie está en un fracaso. La reputación de nadie está en riesgo. Nadie lanza.

El efecto compuesto

La diferencia entre una empresa que lanza su primera herramienta de IA en octubre de 2025 y una que la lanza en octubre de 2026 no es doce meses. Son doce meses de aprendizaje compuesto.

La empresa que lanza en octubre de 2025 tendrá doce meses de datos de producción en octubre de 2026. Doce meses de feedback de usuarios. Doce meses de ajustes, mejoras y conocimiento acumulado sobre cómo sus usuarios específicos interactúan con herramientas de IA en su contexto operativo específico. El modelo se habrá refinado. Los flujos de trabajo se habrán optimizado. El equipo habrá desarrollado fluidez. La organización habrá absorbido el cambio cultural de “tenemos una estrategia de IA” a “usamos IA”.

La empresa que lanza en octubre de 2026 partirá de cero. La misma tecnología. Las mismas funcionalidades. La misma capacidad del modelo. Cero aprendizaje acumulado. Cero datos de producción. Cero memoria muscular organizativa.

El efecto compuesto en el despliegue de IA no tiene que ver con la tecnología. La tecnología mejora independientemente de que la uses. El efecto compuesto tiene que ver con el conocimiento operativo — la comprensión que la organización tiene de cómo las herramientas de IA interactúan con sus flujos de trabajo específicos, sus clientes específicos, sus restricciones específicas. Este conocimiento se acumula. No se puede acelerar. Solo se puede empezar.

Cada mes de retraso es un mes de aprendizaje compuesto perdido. El coste no es lineal. Es exponencial — porque cada mes de aprendizaje hace al siguiente más productivo, y la brecha se amplía con el tiempo.

Por eso “esperemos a modelos mejores” es la frase más cara en estrategia de IA. Los modelos serán mejores en seis meses. También serán mejores en doce. Y en veinticuatro. La mejora de los modelos es continua y externa. El aprendizaje operativo es interno y tiene que empezar. El mejor modelo del mundo, desplegado para un equipo sin experiencia operativa, rendirá por debajo de un modelo mediocre desplegado para un equipo con doce meses de aprendizaje en producción.

El surfista que espera la ola perfecta nunca aprende a surfear. Las olas siguen llegando. El aprendizaje solo ocurre en el agua.

Lanza pronto. El efecto compuesto empieza en el despliegue. No empieza en ningún otro lugar.

La verdad incómoda

La mayoría de los proyectos de IA mueren no porque la tecnología falle, sino porque nadie se compromete con el momento en que la herramienta se encuentra con sus usuarios. La tecnología está lista. La infraestructura existe. El marco regulatorio está definido. El caso de uso es claro. Lo que falta es la decisión: esto se lanza en esta fecha para estas personas.

Esa decisión requiere que alguien acepte que la primera versión será imperfecta. Que algunos usuarios se frustrarán. Que algunos casos de uso no funcionarán como se esperaba. Que el dashboard mostrará métricas de adopción que empiezan bajas y suben despacio — si el despliegue se hace bien — o empiezan bajas y se quedan bajas, lo cual también es información útil.

La decisión requiere a alguien que le importe más desplegar una herramienta que funcione que presentar un piloto exitoso.

La UE tiene aproximadamente 33 millones de empresas. Según los datos de Eurostat de diciembre de 2025, alrededor del 20 % de las empresas con 10 o más empleados han adoptado IA de alguna forma. El 80 % que no lo ha hecho no está esperando mejor tecnología. Está esperando a que alguien diga: esto se lanza.

El manifiesto anti-piloto

Voy a ser explícito sobre lo que defiendo, porque la sabiduría convencional empuja en contra con fuerza.

No estoy en contra de probar. Prueba con rigor. Prueba con datos reales. Prueba con casos extremos. Prueba con entradas hostiles. Las pruebas son ingeniería. La ingeniería es innegociable.

No estoy en contra de planificar. Planifica el despliegue. Mapea el flujo de trabajo. Identifica a los usuarios. Diseña la integración. La planificación es arquitectura. La arquitectura es innegociable.

Estoy en contra del piloto como estado permanente. El piloto que funciona durante seis meses sin una fecha de lanzamiento. El piloto que se renueva trimestralmente porque “necesitamos más datos”. El piloto que se ha convertido en una actividad cómoda, de bajo riesgo y baja responsabilidad que permite a la organización decir “estamos trabajando en IA” sin poner nunca una herramienta delante de un usuario.

El piloto no es inherentemente malo. Un piloto de dos semanas que valida un caso de uso y luego se lanza es una herramienta potente. Un piloto de dos semanas que valida un caso de uso y luego se convierte en una evaluación de cuatro meses que se convierte en una valoración de doce meses no es un piloto. Es evasión con cronograma.

La distinción es la fecha de lanzamiento. Un piloto con fecha de lanzamiento es una actividad de ingeniería. Un piloto sin fecha de lanzamiento es un mecanismo de confort organizativo. La fecha de lanzamiento fuerza una decisión: esto es suficientemente bueno para desplegar, o esto no merece la pena desplegar. Ambos resultados son útiles. Ninguno está disponible para el piloto que nunca termina.

Fija la fecha de lanzamiento antes de que empiece el piloto. Escríbela. Díselo al equipo. Díselo a los stakeholders. Díselo al consejo. La herramienta se lanza en esta fecha, o el proyecto se cancela en esta fecha. No hay tercera opción.

Los verdaderos artistas lanzan. Los verdaderos ingenieros lanzan. Las verdaderas empresas — las que seguirán siendo competitivas en 2030 — lanzan.

El piloto ha terminado. Lánzalo o ciérralo.

Escrito por
Bertrand
Tecnólogo Creativo

Emprendedor en serie con doctorado en IA y veinticinco años construyendo sistemas por toda Europa. Crea código como surfea: leyendo patrones, encontrando el flujo, haciendo que lo difícil parezca sencillo.

← Todas las notas