AMBGAMBG
IA aplicada4 de abril de 20266 min

Antes de implantar IA

Antes de elegir Copilot, ChatGPT, Gemini o la herramienta de IA de turno, conviene decidir qué trabajo debe mejorar, qué límites necesita y cómo se va a medir si aporta algo.

Alfonso del Busto Martínez

Publicado el · 6 min lectura

Compartir en LinkedIn

El patrón ya se repite

En muchas pymes la conversación sobre IA empieza demasiado pronto por la herramienta y demasiado tarde por el trabajo. Se ve una demo de Copilot, alguien prueba ChatGPT, otro enseña Gemini y durante unas semanas parece que el tema ya está encarrilado. Luego llega la realidad: nadie ha decidido qué tarea concreta debe mejorar, quién la va a usar ni cómo se va a medir si aporta algo.

Ese patrón no es una impresión aislada. IBM recogía este año un dato del MIT especialmente útil para poner contexto: el 95% de los pilotos de IA generativa no llegan a consolidarse con valor real de negocio. La cifra encaja bastante con lo que se ve fuera del discurso comercial: entusiasmo rápido, caso de uso borroso y una licencia que luego cuesta justificar.

Dato de referencia

La mayoría de los pilotos no llega a valor medible.

IBM Think cita a la iniciativa NANDA de MIT y deja una base difícil de ignorar: la mayoría de los pilotos de IA generativa se queda a mitad de camino antes de convertirse en valor operativo.

95%

sin valor

Pilotos que no consolidan valor medible

Pilotos fallidos95%

Iniciativas que IBM sitúa en escala empresarial

En escala16%

84% Sigue lejos de escalar

Gráfico elaborado a partir de IBM Think, que a su vez referencia MIT NANDA y el IBM Institute for Business Value.

Antes de comprar nada

Cuatro comprobaciones previas que conviene dejar cerradas antes de comprar licencias, activar un piloto o presentar la IA como respuesta universal.

01Foco

Qué tarea concreta debe mejorar y cuánto tiempo consume hoy.

02Uso

Quién la va a usar y qué revisión humana sigue siendo obligatoria.

03Límites

Qué datos puede tocar la herramienta y cuáles no.

04Métrica

Qué indicador va a decidir si merece seguir o no.

El error no suele ser técnico

El mayor problema suele aparecer antes del despliegue. Terralogic resumía bien uno de los fallos más comunes: adoptar IA porque lo hace la competencia, no porque exista una necesidad operativa concreta. Cuando el punto de partida es ese, todo se vuelve ambiguo. La herramienta parece actual, pero no está claro para qué entra ni qué resultado debería dejar.

Por eso conviene empezar al revés. No preguntarse si toca Copilot, ChatGPT, Gemini o cualquier otra cosa, sino dónde se pierde tiempo de verdad. Redacción de correos, propuestas que siempre empiezan desde cero, reuniones que nadie resume bien, documentación imposible de localizar o respuestas de soporte repetitivas. Cuando el caso está bien acotado, la conversación deja de ir de moda y empieza a ir de trabajo.

Poner IA encima de desorden no arregla nada

También conviene bajar una expectativa que aparece mucho: pensar que la IA arreglará por sí sola un entorno mal resuelto. No suele pasar. Si la documentación está desordenada, si el proceso tiene pasos innecesarios o si nadie sabe qué versión del dato es la válida, la IA trabaja sobre esa misma base. Puede acelerar algo, sí, pero también amplificar confusión.

El World Economic Forum insistía precisamente en esto: muchas iniciativas se frenan porque las compañías intentan sacar valor de la IA sin haber optimizado antes los procesos que la sostienen. Dicho de una forma menos grandilocuente: a veces resuelve más una plantilla decente, una integración limpia o una estructura documental clara que otro asistente añadido por encima.

Sin límites y medida, acaba siendo un experimento caro

La otra parte que se suele saltar es la de los límites. Qué información puede tocar la herramienta, qué salidas deben revisarse siempre y qué respuestas no conviene automatizar porque requieren contexto o responsabilidad humana. Esa definición no frena la implantación. La hace seria.

APQC lo planteaba con bastante claridad: cuando el problema no está bien definido y no existe una métrica explícita de éxito, estos proyectos terminan comportándose como experimentos costosos. Esa es una buena prueba de realidad para cualquier pyme. Si no sabes qué vas a medir dentro de dos meses, probablemente todavía no estás decidiendo una implantación; estás probando una novedad.

Dónde sí encaja

La IA sí puede encajar muy bien cuando entra en un punto específico del trabajo y con una base suficiente detrás. Borradores iniciales, clasificación de información, síntesis de reuniones, apoyo a documentación, preparación de respuestas o búsquedas con contexto son usos razonables si existe supervisión y un objetivo claro.

El criterio útil no es si la empresa “tiene IA”. El criterio útil es si una tarea concreta se hace mejor, en menos tiempo o con más consistencia que antes. Si la respuesta es sí, se consolida. Si la respuesta es no, se corta. Esa disciplina vale bastante más que cualquier discurso sobre transformación.

Referencias

Fuentes y contexto

Referencias utilizadas para sostener la tesis central y los datos citados en el artículo, ordenadas aquí con un tratamiento más sobrio y bibliográfico.

  1. 01

    IBM
    IBM Think

    IBM recoge un análisis del MIT que sitúa en torno al 95% el fracaso de los pilotos de IA generativa cuando se quedan en experimento sin impacto medible.

    Abrir fuente
  2. 02

    Terralogic
    Adoptar IA por presión externa

    Terralogic advierte de que muchas empresas adoptan IA porque lo hace la competencia, en lugar de partir de un problema de negocio concreto.

    Abrir fuente
  3. 03

    World EconomicForum
    Primero proceso, luego IA

    El World Economic Forum insiste en que la IA no desbloquea valor si antes no se han ordenado los procesos y la base operativa.

    Abrir fuente
  4. 04

    APQC
    Definir el problema y la métrica

    APQC plantea que, sin un objetivo claro y una medida de éxito, la IA empresarial tiende a quedarse en experimento caro.

    Abrir fuente