IA con propósito: cuándo genera valor real y cuándo solo produce experimentos caros#
La inteligencia artificial se ha convertido en una de esas conversaciones donde el entusiasmo suele llegar antes que la claridad. Muchas organizaciones dicen que “ya están trabajando con IA”, pero cuando uno mira con más detalle descubre algo distinto: pilotos dispersos, demos llamativos, presupuestos de exploración, mucha expectativa interna y muy poca evidencia de valor sostenido.
Ese patrón no es raro. En 2026, el problema ya no es solo que haya hype alrededor de la IA. El problema es que demasiadas instituciones todavía confunden actividad con impacto.
En servicios financieros, esa confusión sale cara. No solo por el costo directo de licencias, integraciones, proveedores o talento especializado. También por el costo de oportunidad de distraer atención ejecutiva, fragmentar arquitectura, crear dependencias difíciles de sostener y elevar exposición operativa sin una hipótesis de valor suficientemente clara.
Por eso, la pregunta seria no es si una organización “debe tener IA”. La pregunta correcta es otra: ¿en qué condiciones la IA realmente crea valor y en qué momento solo se convierte en una experimentación cara?
¿Cuándo genera valor real la IA y cuándo se vuelve una experimentación costosa?#
La IA genera valor real cuando está conectada a un problema relevante, mejora una métrica concreta y puede sostenerse con arquitectura, datos, controles y gobernanza adecuados. Cuando se adopta solo por presión competitiva, por moda o por deseo de “no quedarse atrás”, suele convertirse en una colección de experimentos costosos con baja capacidad de escalar.
El AI RMF 1.0 de NIST plantea que la gestión del riesgo de IA debe integrarse al diseño, desarrollo, despliegue y uso de los sistemas y mantenerse a lo largo de su ciclo de vida. La OECD recuerda además que el impacto de la IA en productividad existe, pero sigue siendo heterogéneo y depende mucho del tipo de adopción, difusión y capacidades complementarias de la organización.
El primer error: tratar la IA como estrategia en sí misma#
Hay una diferencia importante entre tener una estrategia que usa IA y tener una estrategia que consiste en “hacer algo con IA”. La primera parte de un problema, de una capacidad o de una oportunidad concreta. La segunda parte del hype.
NIST describe su AI Risk Management Framework como una guía para incorporar consideraciones de confiabilidad y riesgo en el diseño, desarrollo, uso y evaluación de sistemas de IA. Solo esa formulación ya dice mucho: la IA no aparece como fin, sino como sistema que debe demostrar propósito, contexto y manejo responsable del riesgo.
Mi postura es clara: cuando una organización adopta IA sin anclarla a una prioridad de negocio o a una fricción operativa real, no está innovando con criterio. Está comprando opcionalidad tecnológica sin saber todavía si la podrá convertir en capacidad.
El valor real suele aparecer primero en productividad y operaciones, no en promesas grandilocuentes#
Esto es especialmente importante en banca y servicios financieros. A veces se habla de IA como si su primer gran destino natural fuera transformar completamente la experiencia del cliente o rediseñar el modelo de negocio. Puede pasar, sí, pero no suele ser ahí donde aparece primero la evidencia más robusta de valor.
El BIS / FSI resume que, hoy por hoy, las instituciones financieras están usando IA sobre todo para productividad interna, monitoreo, cumplimiento, detección de fraude y mejora operativa, mientras los casos más sensibles siguen requiriendo mucha cautela. Esa observación es útil porque baja la conversación a tierra: gran parte del valor inicial todavía está en eficiencia y mejora de procesos, no necesariamente en nuevas líneas espectaculares de monetización.
La OECD también subraya que la IA tiene potencial para influir significativamente en productividad y crecimiento, pero reconoce incertidumbre importante sobre la magnitud, velocidad y distribución de esos beneficios. En otras palabras: sí, la IA puede crear valor. Pero no de forma automática, homogénea ni inmediata.
Cuando la IA no está conectada a arquitectura y gobernanza, el piloto se vuelve deuda futura#
Aquí aparece un problema que desde arquitectura se ve muy rápido. Una prueba de IA puede parecer exitosa en un entorno controlado y aun así ser una mala inversión estructural.
¿Por qué? Porque el piloto no compra solo una capacidad. Compra también dependencias de datos, integración con canales, trazabilidad, nuevos requisitos de monitoreo, necesidades de evaluación continua, potencial concentración en proveedores, demandas de cómputo y, muchas veces, una conversación mucho más compleja sobre seguridad y resiliencia.
El BIS / FSI advierte que el uso de IA en servicios financieros sin controles y supervisión adecuados puede amplificar vulnerabilidades como dependencia de terceros, concentración de proveedores, problemas de calidad de datos, riesgos de gobernanza de modelos y exposición creciente a amenazas emergentes. Eso cambia por completo la discusión. La IA no debería evaluarse solo por lo bien que responde un demo. También debe evaluarse por la complejidad que la organización está comprando al intentar escalarla.
Una forma útil de distinguir valor real de experimento caro#
Yo usaría cinco filtros.
1. Problema claro#
Si el caso de uso no puede describirse como una fricción concreta, una decisión mejorable, un proceso ineficiente o una oportunidad tangible de productividad, probablemente todavía no está listo. La IA no compensa la falta de claridad del problema.
2. Métrica observable#
Debe existir una señal de valor que pueda medirse: menos tiempo de ciclo, menos errores, mejor calidad, menor abandono, mayor recuperación, más precisión, menor carga operativa o mejor experiencia. Sin métrica, el piloto se vuelve narrativa.
3. Viabilidad de datos y proceso#
No basta con que el modelo sea bueno. Debe existir disponibilidad de datos, calidad suficiente, contexto de uso realista y un proceso donde la salida del modelo pueda integrarse sin crear más fricción que la que intenta resolver.
4. Gobernanza y control#
NIST define como características de IA confiable elementos como validez y confiabilidad, seguridad, resiliencia, accountability, transparencia, explicabilidad en la medida necesaria, privacidad y manejo de sesgos dañinos. Además, el NIST AI RMF Playbook organiza la gestión alrededor de cuatro funciones: Govern, Map, Measure y Manage. Esa estructura ayuda mucho porque obliga a tratar la IA como una capacidad que debe gobernarse, entenderse en contexto, medirse y gestionarse, no solo desplegarse.
5. Escalabilidad estructural#
La pregunta final no es “¿funciona?”. Es “¿puede funcionar con controles, monitoreo, soporte, arquitectura y economía de operación razonables?”. Ahí es donde muchos experimentos brillantes empiezan a perder atractivo.
Un ejemplo realista: IA para atención, fraude y operaciones#
Imaginemos tres iniciativas en una institución financiera.
La primera quiere usar IA generativa para resumir conversaciones y asistir a agentes del contact center. La segunda quiere usar modelos avanzados para reforzar detección de fraude. La tercera quiere lanzar un asistente conversacional al cliente final en canales sensibles.
Las tres usan IA, pero no tienen el mismo perfil.
La primera puede generar valor relativamente rápido si reduce tiempos, mejora consistencia y mantiene supervisión humana. La segunda puede crear mucho valor, pero exige una conversación más profunda sobre falsos positivos, explicabilidad operativa, datos y respuesta a incidentes. La tercera quizá sea la más vistosa para marketing, pero también puede ser la más delicada desde reputación, seguridad, cumplimiento y experiencia si todavía no existe suficiente madurez interna.
NIST remarca que la gestión del riesgo debe ser continua, iterativa y multidisciplinaria durante el ciclo de vida completo del sistema de IA, mientras el BIS / FSI alerta que el impacto de IA aumenta conforme penetra operaciones centrales y se conecta con servicios críticos. Eso refuerza una idea fundamental: no todos los casos de IA deben recibir el mismo entusiasmo ni el mismo nivel de tolerancia al riesgo.
Lo que sí vale la pena explorar antes de prometer demasiado#
No estoy diciendo que una organización deba esperar a tener certeza total para empezar. Eso sería tan torpe como adoptar IA por moda. Sí creo que vale la pena explorar antes de tener el caso final completamente maduro, pero con una condición: que exista una hipótesis concreta de valor.
La OECD observa que el impacto de la IA sobre productividad depende de su difusión efectiva, de capacidades complementarias y de cómo se articula con procesos, empresas y sectores. Eso me parece central. La IA no crea valor por sí sola; crea valor cuando se inserta bien en un sistema organizacional que puede absorberla y convertirla en rendimiento.
Explorar, entonces, sí. Pero explorar con propósito, umbrales, métricas y criterios explícitos de continuación o descarte.
Reflexión de Arquitectura#
Una prueba de IA no debería juzgarse solo por la calidad del modelo. Debería juzgarse por la capacidad de la organización para integrarla sin romper su ecosistema. La arquitectura madura no pregunta únicamente si la IA funciona. Pregunta también si su incorporación fortalece capacidades o si introduce una nueva isla costosa de complejidad.
Lo que un CTO debería leer detrás de esta conversación#
Desde dirección tecnológica, este tema tiene una implicación muy concreta: la IA no debe gobernarse como una colección de iniciativas “especiales” que viven al margen de la arquitectura y del modelo operativo.
Al contrario. Mientras más relevante sea el caso de uso, más importante es integrarlo al sistema normal de gobierno: datos, seguridad, continuidad, observabilidad, evaluación, roles, accountability y criterios de escalamiento.
NIST señala que el AI RMF debe ser práctico, adaptable y alineado con otras prácticas de gestión de riesgos, además de ofrecer un lenguaje común para comunicar riesgos de IA dentro y fuera de la organización. Esa idea es poderosísima para un CTO: la IA útil no necesita solo científicos de datos o licencias de modelo. Necesita una organización capaz de hablar un lenguaje común de propósito, riesgo y valor.
Reflexión CTO#
La verdadera madurez en IA no se ve en la cantidad de pilotos lanzados, sino en la capacidad de distinguir rápido cuáles merecen escalar y cuáles deben morir temprano. Gobernar bien la IA no frena la innovación. Evita que la empresa convierta el entusiasmo en deuda.
Mi opinión: el mayor desperdicio no es fallar con IA, sino fallar sin aprender nada útil#
No creo que el error sea experimentar. El error es experimentar sin un marco de decisión que convierta esa exploración en aprendizaje acumulable.
Hay pilotos que fracasan y aun así dejan valor: clarifican un problema, revelan una limitación de datos, muestran una restricción operativa o confirman que un caso de uso todavía no tiene sentido. Eso puede ser una inversión útil.
Lo que sí me parece caro de verdad es otra cosa: iniciativas de IA que consumen tiempo, presupuesto y narrativa ejecutiva, pero dejan a la organización exactamente donde empezó, solo que con más complejidad y más confusión sobre qué escalar.
La IA con propósito puede ser una palanca muy poderosa. La IA adoptada por ansiedad competitiva suele convertirse en teatro tecnológico con costo elevado.
Conclusión#
La IA no genera valor por existir. Tampoco por aparecer en la estrategia, en el roadmap o en una demo bien presentada.
Genera valor cuando está conectada a un problema relevante, a una métrica observable, a una arquitectura sostenible y a una gobernanza que permite escalarla con control. En servicios financieros, esa diferencia no es menor: separa una palanca de negocio de una experimentación costosa.
En 2026, la pregunta madura ya no es si una organización “tiene IA”. La pregunta que importa es si la está convirtiendo en capacidad útil o si solo está acumulando pilotos difíciles de sostener.
Glosario breve#
IA (Inteligencia Artificial)
Conjunto de técnicas y sistemas capaces de realizar tareas que normalmente requieren capacidades humanas, como clasificación, predicción, generación de texto o apoyo a decisiones.
NIST (National Institute of Standards and Technology)
Instituto de referencia de Estados Unidos que publica marcos y guías ampliamente usados para gestionar riesgos de ciberseguridad e inteligencia artificial.
AI RMF (AI Risk Management Framework)
Marco de NIST para gestionar riesgos de IA. Se estructura en cuatro funciones: Govern, Map, Measure y Manage.
GenAI (Generative AI)
IA generativa. Sistemas capaces de producir texto, código, imágenes u otros contenidos a partir de instrucciones o datos de entrada.
BIS (Bank for International Settlements)
Banco de Pagos Internacionales. Publica análisis relevantes sobre estabilidad financiera, digitalización y riesgos emergentes en servicios financieros.
OECD (Organisation for Economic Co-operation and Development)
Organización para la Cooperación y el Desarrollo Económicos. Publica estudios de referencia sobre productividad, innovación, transformación digital y políticas públicas.
Financial Stability Institute (FSI) del Banco de Pagos Internacionales (BIS) Organismo creado para ayudar a supervisores financieros y bancos centrales de todo el mundo. Apoya la implementación de estándares regulatorios globales, como los de Basilea, a través de seminarios, capacitación y la difusión de mejores prácticas de supervisión.
Comité de Basilea (BCBS) El BIS alberga la secretaría del Comité de Supervisión Bancaria de Basilea, el cual emite los reconocidos «Acuerdos de Basilea» (Basilea I, II, III), estándares internacionales que dictan cuánto capital deben mantener los bancos en reserva para gestionar riesgos.
Referencias#
NIST, Artificial Intelligence Risk Management Framework (AI RMF 1.0)
https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdfNIST, Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile (NIST AI 600-1)
https://www.nist.gov/publications/artificial-intelligence-risk-management-framework-generative-artificial-intelligenceNIST, NIST AI RMF Playbook
https://www.nist.gov/itl/ai-risk-management-framework/nist-ai-rmf-playbookOECD, The impact of Artificial Intelligence on productivity, distribution and growth
https://www.oecd.org/en/publications/the-impact-of-artificial-intelligence-on-productivity-distribution-and-growth_8d900037-en.htmlBIS / FSI, Financial stability implications of artificial intelligence – Executive Summary
https://www.bis.org/fsi/fsisummaries/exsum_23904.htm
