Por Rupali Patel Shah, Directora de Soluciones Jurídicas, DiliTrust
Al cerrar el primer trimestre de 2026, hice un repaso retrospectivo y volví a leer algunos de mis artículos anteriores sobre la IA como factor disruptivo, tanto en la abogacía como en la sociedad en general.
En su mayor parte, las predicciones se han cumplido. En particular, en lo que respecta a la creciente importancia de la gobernanza de la información, que ya no es algo teórico, sino que se está manifestando como una necesidad operativa real dentro de las organizaciones. Y, sin duda, ahora sé mucho más de IA que hace un año. La mayoría de las personas con las que hablo también están mucho más familiarizadas con el tema que en 2025.
Pero hay algo que no ha cambiado: en 2025 era escéptica respecto a la IA, y tres meses después de comenzar 2026, sigo siéndolo. Y no soy la única.
Tras pasar los últimos meses hablando con abogados internos, tecnólogos y responsables de operaciones jurídicas, una cosa está clara: mientras el entusiasmo en torno a la IA sigue en su punto álgido, también lo hacen las exigencias de responsabilidad, gobernanza y barreras éticas. Los pioneros ya no se conforman con la experimentación: piden «dividendos de la IA» cuantificables.
Si 2025 fue el año de la «IA para todo, en todas partes», 2026 se perfila como el año de un conjunto de preguntas mucho más importantes:
Nivel 1: La IA no puede rendir cuentas, por lo que no debería tomar decisiones.
Empecemos con algo que parece obvio, pero que de alguna manera se pierde entre el ruido: la IA no puede rendir cuentas, ni legalmente, ni éticamente, ni operativamente. No tiene interés en el resultado, ni capacidad de juicio, ni capacidad para asumir consecuencias. Y eso importa, porque la toma de decisiones, la verdadera toma de decisiones, requiere todas esas cosas. Por lo tanto, si la IA no puede rendir cuentas, no debería tomar decisiones. Y punto.
Nivel 2: La IA es una herramienta, no un sustituto
La IA es una herramienta poderosa, pero no es más que eso: una herramienta. Al igual que un martillo o un tenedor, la IA es útil en el contexto adecuado, pero su valor depende totalmente de cómo y por qué se utilice.
Y aquí es donde tenemos que ser muy claros: la IA no puede sustituir a los humanos. No puede funcionar sin intervención humana. No puede tomar decisiones sin intervención humana. Y no puede existir de forma significativa sin personas y procesos a su alrededor.
El verdadero riesgo es que las organizaciones empiecen a comportarse como si los humanos ya no fueran necesarios. Al principio se ve de forma sutil, como menos inversión en formación y énfasis en la experiencia, más confianza en las herramientas para «resolverlo». Y luego se ve de forma más explícita: dar por sentado que la herramienta puede asumir la carga y reducir la plantilla demasiado rápido.
Y esta abdicación, esta sobreestimación del valor y la utilidad de una herramienta que requiere intervención humana, es la razón principal por la que fallan las implementaciones tecnológicas.
Piénselo: se pasa todo el tiempo formando a la tecnología y no lo suficiente a las personas que tienen que utilizarla. Entonces, cuando se produce el caos -porque no hay suficientes personas formadas en la herramienta, y las que están formadas no pueden impulsar la adopción por sí mismas (y te explota la cabeza)-, la organización lo califica de fracaso tecnológico y alguien pierde su trabajo.
Esto no es nuevo, lo hemos visto con cada gran ola tecnológica:
- Invertir demasiado en la herramienta
- Invertir poco en personas y procesos
- Esperar la transformación
- Decepción
Y ahora volvemos a hacerlo con la inteligencia artificial.
Cuando la IA se implanta sin estrategia
En el sector jurídico, en particular, la presión para aumentar la eficiencia es real. La IA tiene un papel que desempeñar al respecto. Pero la forma en que la utilizamos actualmente agrava los problemas en lugar de resolverlos. Estamos desplegando la IA de forma desordenada y dispersa, adoptando múltiples herramientas entre equipos con poca coordinación y tomando decisiones basadas en preferencias individuales: lo que funciona para una persona, un flujo de trabajo, un momento.
Llámelo experimentación si quiere, pero gran parte de ello se parece más a «programación por intuición» que a una estrategia empresarial. Eso no es transformación, es caos con una interfaz de usuario.
El verdadero beneficio de la IA
Ahora bien, nada de esto quiere decir que la IA no sea valiosa. Cuando se utiliza adecuadamente, puede ser increíblemente potente. De hecho, la IA es excepcional a la hora de reconocer patrones y extraer insights rápidamente de grandes volúmenes de datos. Puede asimilar más información de la que cualquier persona podría procesar y hacer que esa información sea útil. Es un multiplicador de fuerzas.
Y ahí es donde estamos viendo los verdaderos Beneficios de la IA, es decir, el ROI real de la inversión en IA, tanto tangible como intangible -especialmente en el ámbito jurídico- gracias a un análisis rápido y personalizado y a un mejor acceso a la información.
Pero fíjese en a qué conduce todo eso: a personas mejor informadas, no a sistemas autónomos que toman decisiones. Entonces, ¿cómo se consigue que las personas estén mejor informadas? Con gobernanza, por supuesto
La IA sin gobernanza no genera beneficios. De hecho, puede empeorar las cosas. Los buenos resultados no provienen de las herramientas, sino de procesos definidos, datos de alta calidad y bien gestionados, y personas formadas para utilizar ambos. Esa es la base y también es hacia donde deben orientarse los departamentos jurídicos. Porque, en esencia, la función jurídica se basa en la coherencia, la responsabilidad y la defendibilidad.
La tecnología es una herramienta. En manos del usuario adecuado y con el propósito adecuado, puede ser increíblemente poderosa. Pero sobrevalorar lo que una herramienta puede hacer es peligroso, porque cuando lo hacemos, empezamos a ignorar las cosas que realmente hacen que la tecnología funcione:
Se necesitan los tres. No se pueden pasar por alto. Y la IA no es una excepción.
Mejores decisiones, no menos humanos
Si lo hacemos bien, la IA puede ayudarnos a tomar mejores decisiones, más rápido, con más confianza y con mejores resultados. Si nos equivocamos, no solo perderemos las ventajas, sino que crearemos nuevos riesgos, más difíciles de detectar, de explicar y de defender.
Así que la cuestión no es si la IA formará parte del futuro del ámbito jurídico y empresarial. Lo hará. La verdadera cuestión es si la utilizamos para potenciar el juicio humano o si intentamos sustituirlo.
Porque uno de esos caminos conduce a mejores decisiones y el otro conduce a un fracaso que podríamos haber previsto.

