¿Qué es la responsabilidad en IA y por qué el Director Jurídico debe prestarle atención?

A medida que la IA sigue evolucionando y se integra en la mayoría de nuestras herramientas de trabajo cotidianas, nos aporta tanto ventajas como riesgos. La responsabilidad en IA es uno de ellos. Un concepto que plantea una pregunta clave: ¿Quién debe asumir la responsabilidad de los resultados de la tecnología de IA, ya sean positivos o negativos?

Las expectativas son elevadas para los profesionales del derecho y los directores jurídicos. Se espera que demuestren competencia en IA y que actúen como guardianes del riesgo organizativo, junto con otros departamentos como el de TI.

Los tribunales están trazando una línea precisa: si el sistema establece valores predeterminados y los humanos se limitan principalmente a ratificar los resultados, la supervisión se convierte en algo procedimental, no sustantivo, y eso no es suficiente protección. Con la Ley de IA de la Unión Europea y el aumento de las regulaciones estatales que reflejan este cambio, el director jurídico debe prepararse para trabajar con la IA. En este artículo revelaremos lo que el director jurídico debe saber.

¿Qué es la responsabilidad en IA?

La responsabilidad en IA es el principio de que los seres humanos, y no las máquinas, tienen la responsabilidad legal y operativa de los resultados de la IA. Las principales preguntas que se plantean y para las que se espera tener respuestas claras y concretas son:

  • ¿Quién lo aprobó?
  • ¿Qué datos ha manejado?
  • ¿Qué daño podría causar?
  • ¿Cómo se controla?
  • ¿Quién lo controla?
  • ¿Quién responde si falla?

El término se generalizó a principios de 2020, a medida que la IA se extendía por todos los sectores. A diferencia de la transparencia (revelar cómo funciona la IA) o la ética (definir lo que debe hacerse), la responsabilidad en IA garantiza que alguien pueda responder cuando algo sale mal. Es el sistema de control que convierte la gobernanza de la IA de política a práctica.

La realidad normativa: la responsabilidad en IA es ahora obligatoria

El panorama normativo en torno a la tecnología basada en IA está cambiando. Y, en su mayor parte, las regiones de todo el mundo están viendo cómo se aplican nuevas normas o recomendaciones:

  • La UE estableció la Ley de IA como el primer marco normativo integral de IA, que se aplica desde 2024.
  • En Estados Unidos, la American Bar Association y el NIST informan continuamente sobre las buenas prácticas y orientaciones en torno a la gestión de la IA.
  • Además, en 2024, solo en Estados Unidos, 131 estados aprobaron leyes sobre IA, más del doble que el año anterior.

En general, los tribunales están dispuestos a exigir responsabilidades a los implementadores (los que utilizan la tecnología de IA), y no solo a los proveedores. Cuando algo sale mal, la responsabilidad recae en las personas que aprobaron, implementaron o utilizaron el sistema. Esto incluye al director jurídico de una organización.

Pero aquí está la clave: Las conclusiones de AuditBoard y Panterra Research afirman que el 44% de los profesionales de GRC citan la falta de claridad en la responsabilidad en IA como el principal obstáculo para una gobernanza eficaz. El problema no radica solo en las herramientas en sí mismas, sino en la propiedad. Cuando la responsabilidad no está clara, la gobernanza de la IA se convierte en un mero trámite de cumplimiento normativo en lugar de una ventaja operativa. Pero cuando la propiedad está claramente definida, la responsabilidad en IA se convierte en el marco que ayuda a los equipos jurídicos a trabajar con la IA de forma más eficaz, transformando la obligación normativa en una capacidad estratégica.

Toda implementación de IA debe ser capaz de responder a las cinco preguntas siguientes. Y debe poder hacerlo antes de la puesta en marcha, no después

Cinco preguntas para orientar la responsabilidad en IA

Una vez implementado un sistema de IA, siempre debe haber una respuesta a las siguientes preguntas. Esto implica que la organización (y no solo el director jurídico) debe haber pensado en ello antes de la implementación. Y realizar un seguimiento continuo durante todo el ciclo de vida de la herramienta:

¿Quién lo aprobó?

Todo sistema necesita un responsable ejecutivo y una aprobación documentada. Un inventario de IA es el requisito previo, porque no se puede gobernar lo que no se puede ver. El inventario de IA servirá como fuente de registro de referencia de todos los sistemas de IA (herramientas y modelos) desplegados en la empresa y sus respectivos propietarios.

¿Qué datos ha procesado?

La mejor práctica -y, según la Ley de IA, un requisito legal- es auditar los sistemas de IA de alto riesgo para detectar sesgos en sus datos de entrenamiento. En algunas circunstancias, como en la Ley de IA, esto es un requisito. Para la IA jurídica entrenada con documentos históricos, esto significa auditar los sesgos jurisdiccionales, demográficos o jurisprudenciales codificados. La gobernanza de datos no es un trabajo administrativo extra, es el sistema de control del riesgo empresarial.

¿Qué daño podría causar?

Solo en 2024 se notificaron 233 incidentes relacionados con la IA, lo que representa un aumento del 56 %. En lugar de preguntarse si una herramienta podría causar daño, hay que asumir que puede hacerlo y realizar pruebas antes de su implementación. Se trata de un compromiso de supervisión continua, no de una revisión puntual. ¿Cómo se supervisa?

Obligatorio o no, se trata de una buena práctica habitual, ya que los sistemas evolucionan con el tiempo. El registro de eventos y la supervisión continua permiten a los equipos conservar una documentación precisa que justifica y explica los errores en caso de que se produzcan. Según la Ley de AI, es obligatorio conservar los registros durante seis meses como mínimo. Los registros de auditoría diseñados para respetar la confidencialidad son fundamentales para los equipos jurídicos.

¿Quién responde si falla?

La responsabilidad del proveedor no puede transferirse por completo. En Estados Unidos, los tribunales responsabilizan a los implementadores independientemente de las cláusulas de exención de responsabilidad de los proveedores. En la jurisdicción de la UE, la Ley de Inteligencia Artificial establece la responsabilidad claramente. Los proveedores asumen las obligaciones principales, mientras que los implementadores asumen las obligaciones secundarias en virtud del artículo 26. Las multas pueden alcanzar los millones de euros o el 7% de la facturación mundial. Para los equipos jurídicos, la paradoja del derecho de acceso es real. Los requisitos de registro pueden convertir las pistas de auditoría en registros susceptibles de ser descubiertos. A menos que la gobernanza se diseñe con protecciones de acceso desde el principio.

El fracaso es también donde el director jurídico debe liderar. Está claro que la gobernanza de la IA es un esfuerzo de equipo. Pero se espera que el director jurídico trabaje en la responsabilidad en IA siguiendo algunas reglas y buenas prácticas.

Qué significa la responsabilidad en IA para el director jurídico

La encuesta de 2026 de la ACC a directores jurídicos reveló que el 47 % de los directores jurídicos afirma que sus directores generales esperan que desarrollen competencia en IA como la principal capacidad exigida. Así que ahora que la gobernanza de la IA es una responsabilidad de los consejos de administración, el director jurídico se ha convertido en su pilar.

La responsabilidad en IA es el mecanismo que asignará consecuencias cuando las cosas fallen o salgan mal. Y, para ello, las organizaciones deben ahora construir estructuras de gobernanza para este principio, que no tiene precedentes reales.

La buena noticia es que esto viene a demostrar aún más que la IA no está aquí para sustituir a los humanos. Simplemente refuerza un enfoque que no hace más que fortalecer el papel humano. Papel absolutamente necesario en la toma de decisiones y la responsabilidad. Como afirmó Rupali Patel Shah, directora de Soluciones Jurídicas de DiliTrust, en un artículo reciente, «parece obvio, pero de alguna manera se pierde entre el ruido: la IA no puede ser considerada responsable, ni legal, ni ética, ni operativamente».

En última instancia, la IA no puede tomar decisiones por sí sola; lo hacen los humanos. El daño causado por un sistema de IA siempre puede atribuirse a una decisión humana: qué datos utilizar, qué caso de uso autorizar o qué supervisión aplicar.

Las nuevas responsabilidades del director jurídico incluyen:

  • Inventario y clasificación del sistema de IA
  • Mapeo de la exposición reglamentaria
  • Evaluaciones de IA de proveedores
  • Supervisión de la formación en IA
  • Diseño de la gobernanza respetuosa con los derechos

Una responsabilidad compartida con el director jurídico en el centro

La responsabilidad en IA es compartida por los consejos de administración, TI, cumplimiento y unidades de negocio. Pero cuando no se ha establecido la gobernanza, el director jurídico debe liderar de forma proactiva. Cuando algo sale mal, los reguladores no le preguntarán si predijo el fallo, sino si documentó las decisiones, mantuvo registros de auditoría y aplicó la supervisión. La defensa depende del proceso, no de la predicción.

La IA amplía la función jurídica, no la sustituye. Lo que define el valor del director jurídico es lo que la IA no puede replicar: buen criterio, valor y relaciones de confianza. El 63% de los CLO esperan que el número de empleados se mantenga estable mientras utilizan la IA para mejorar la eficiencia, porque el trabajo no está desapareciendo, sino evolucionando.

La responsabilidad en IA no es una carga. Es una oportunidad para definir el liderazgo jurídico en una era en la que la tecnología avanza más rápido que los precedentes.