Qué es la gobernanza de la IA y por qué es importante

Existe una presión constante para innovar en materia de IA dentro de las organizaciones, independientemente de su sector o función. Ya sea a través de nuevos copilotos, nuevos proyectos de automatización o sistemas de predicción. Cada trimestre hay un nuevo proyecto y objetivo, al mismo tiempo que el panorama de la IA se mueve con rapidez y las normativas no siempre son claras. Por eso debe intervenir la gobernanza de la IA, para garantizar el correcto desarrollo, uso y despliegue de los sistemas de IA en las organizaciones.

La gobernanza de la IA es importante porque los sistemas de IA influyen en los análisis jurídicos, las decisiones financieras, los procesos de RRHH, las evaluaciones de riesgos y las interacciones con los clientes. Sin la gobernanza de la IA, las organizaciones avanzan rápido pero se exponen a sesgos, violaciones de la privacidad, sanciones normativas y daños a la reputación. Con la gobernanza de la IA, la innovación es estructurada, responsable y defendible.

Definición de gobernanza de la IA

La gobernanza de la IA se refiere al marco estructurado de políticas, mecanismos de supervisión, estructuras de rendición de cuentas y controles operativos que guían todo el ciclo de vida de la IA, desde el diseño y la formación hasta el despliegue y la supervisión.

Una gobernanza eficaz de la IA alinea los sistemas de IA con los requisitos legales, los valores corporativos y los grados de riesgo. Estos principios definen:

  • Quién es responsable de las decisiones y en qué circunstancias
  • Cómo se evalúan los riesgos antes del lanzamiento o la implementación
  • Supervisión continua tras la implementación
  • Mejores prácticas para el uso interno y externo de las herramientas de IA

Nota: La gobernanza de la IA no es un esfuerzo de cumplimiento puntual. Es una disciplina de gestión.

Principios clave de la gobernanza de la IA

Los principios reconocidos más comunes para dar forma a la gobernanza de la IA son:

  • Enfoque centrado en el ser humano
  • Equidad
  • Transparencia
  • Seguridad y protección
  • Responsabilidad
  • Sostenibilidad

Diferentes fuentes de investigación, como Gartner, han establecido lo anterior como puntos fundamentales para ejecutar la IA de forma eficiente y segura. Ahora bien, por supuesto, estos principios solo tienen sentido para las organizaciones si se trasladan a la empresa.

Enfoque centrado en el ser humano

La IA y la supervisión humana deben coexistir. Hoy en día hay muchas formas de automatizar las decisiones y alcanzar objetivos, pero los humanos siempre deben tener la posibilidad de anular los resultados y participar en las decisiones de mayor impacto. Esto es algo que podemos ver en nuevas tecnologías como la IA agéntica en el ámbito jurídico. Centrarse en el ser humano también significa que, pase lo que pase, la IA tiene como núcleo las necesidades y los deseos humanos. En consecuencia, la IA debe ser beneficiosa para los usuarios finales, no necesariamente eliminándolos de los procesos, sino ayudándolos.

Justo

Cuando se ejecutan proyectos impulsados por la IA, es necesario evitar los sesgo sistemáticos basados en la raza, el sexo o los estereotipos. Todos los modelos de IA deben evaluarse antes de su implementación para garantizar que no haya discriminación ni fines ocultos en el sistema. Los sistemas de IA deben servir al objetivo del usuario, no optimizarse silenciosamente para intereses ocultos como la publicidad, la extracción de datos u objetivos de terceros. Influir en el comportamiento del usuario sólo puede ser aceptable cuando es transparente.

Transparente

Este pilar es sencillo. Las implementaciones impulsadas por la IA deben incluir documentación adecuada, fuentes de datos claras y una lógica de modelo comprensible. La automatización de los procesos jurídicos requiere que la vía de decisión sea explicable y accesible para los usuarios finales. La transparencia también debe tener límites en cuanto a quién puede acceder a los detalles de la toma de decisiones y cuándo. No todo debe ser visible para todos, ya que esto podría crear riesgos de seguridad.

Seguro y protegido

La IA plantea importantes retos de seguridad. Su complejo ecosistema y su rápido entorno normativo añaden nuevos retos. En esencia, las tecnologías y proyectos de IA deben diseñarse en torno a normas de privacidad y ciberseguridad. Esto incluye la protección de los datos sensibles, el control de lo que se comparte y con quién, y la aplicación de un acceso restringido basado en el contexto. La seguridad también requiere una supervisión continua de las consecuencias imprevistas y una planificación proactiva de los riesgos.

Responsable

Como cualquier otra herramienta o proyecto, el desarrollo de la IA requiere propiedad y una rendición de cuentas clara. Esto pone de manifiesto la necesidad de contar con especialistas internos en IA, comités de gobernanza que aprueben los casos de uso y validen los controles, y una estrecha colaboración con los equipos de IT. El auge de la IA también ha dado lugar a nuevas funciones, como las de Director de IA, especialista en Ética de IA y Formador de IA. En última instancia, los equipos directivos deben definir claramente quién es responsable de supervisar y gestionar el funcionamiento conjunto de todos estos sistemas.

Sostenible

Sostenibilidad significa que la gobernanza de la IA tiene en cuenta la proporcionalidad. La recopilación de datos, la intensidad de cálculo y el impacto operativo deben estar en consonancia con el valor empresarial. La formación de grandes modelos de IA consume una cantidad significativa de energía y agua, creando una exposición medioambiental y ESG que las organizaciones no pueden ignorar. Para los responsables jurídicos y de gobernanza, la sostenibilidad dentro de la gobernanza de la IA refleja la responsabilidad corporativa y demuestra que la innovación se gestiona teniendo en cuenta los riesgos a largo plazo y las expectativas normativas.

Tabla resumen

PRINCIPIODESCRIPCIÓN
Centrado en el ser humanoLa IA debe ayudar y completar la capacidad humana, no sustituir su juicio crítico, con una clara supervisión humana y mecanismos de anulación en las decisiones de alto impacto.
JustoLos sistemas de IA deben probarse para evitar sesgos y discriminaciones, y deben servir al objetivo previsto por el usuario sin intereses ocultos ni influencias opacas.
TransparenteLas implantaciones de IA requieren una documentación clara, vías de decisión explicables y un acceso controlado a la información para equilibrar la claridad con la seguridad.
Seguro y protegidoLos sistemas de IA deben construirse en torno a normas de privacidad y ciberseguridad, proteger los datos sensibles e incluir un seguimiento continuo de los riesgos emergentes.
Responsable Las iniciativas de IA requieren una propiedad clara, supervisión de la gobernanza y funciones definidas para garantizar que alguien sea responsable del funcionamiento y la interacción de los sistemas.
SostenibleLa gobernanza de la IA debe garantizar un uso proporcional de los datos y los recursos informáticos, gestionando el impacto medioambiental y alineando la innovación en IA con la responsabilidad corporativa a largo plazo.

Comprender estos principios puede no ser tan difícil como incorporarlos estratégicamente a la gobernanza interna de la IA. ¿Cómo se puede llegar a ese punto?

Cómo establecer directrices sobre IA

Desarrollar un equipo especializado

La gobernanza de la IA no puede recaer en un solo departamento, sino que necesita un equipo especializado. Ya existen funciones como la del responsable de protección de datos, que garantiza el cumplimiento de la privacidad. Las funciones emergentes, como un Director de Cumplimiento de la IA o un Director de IA, coordinan la implementación. Los equipos de seguridad se ocupan de la infraestructura y los riesgos del modelo. Juntos, forman la columna vertebral de la gobernanza de la IA.

Antes de definir los controles, las organizaciones deben comprender lo que están gobernando, y en gran parte mediante la perfecta comprensión de sus datos. La gobernanza de la IA comienza con una identificación estructurada de los riesgos.

Para ello, hay que identificar todos los casos de uso de la IA y plantearse preguntas prácticas:

  • ¿Este sistema procesa datos personales o sensibles?
  • ¿Sus resultados podrían afectar de manera significativa a personas, contratos, finanzas o decisiones de empleo?
  • ¿Existe riesgo de sesgo o resultados discriminatorios?
  • ¿Podría el modelo alucinar o generar información inexacta?
  • ¿Existe riesgo de fuga de datos o de acceso no autorizado?
  • ¿El sistema podría ser manipulado o atacado?

La identificación de riesgos no debe verse como una lista de verificación puntual. Los sistemas de IA evolucionan y surgen nuevas integraciones. La gobernanza de la IA requiere una reevaluación periódica para garantizar que los controles re

Traducir los principios éticos de la IA

El objetivo de este paso es comprender cómo se pueden aplicar los principios éticos de la IA a la estrategia de gobernanza de la IA. Una buena forma de hacerlo es empezar por recopilar los valores y objetivos de la empresa y compararlos con las directrices éticas.

PRINCIPIOVALOR DE LA EMPRESAGUÍA
Centrado en el ser humanoEl cliente es lo primero– Definir umbrales de automatización
– Establecer casos de uso que requieran validación humana
Seguro y protegidoIntegridad por defecto– Introducir controles obligatorios de revisión de la seguridad y la privacidad
– Restringir el acceso en función de la sensibilidad de los datos
ResponsableFiable– Definir flujos de aprobación formales
– Utilizar matrices RACI para aclarar la responsabilidad

Para lograr un plan de gobernanza de la IA sólido, los valores deben convertirse en procedimientos. Estos procedimientos, a su vez, deben ser constantemente supervisados, revisados y, por supuesto, aplicados.

Desarrollar un código de conducta de la IA

Aquí es donde la Gobernanza de la IA se hace tangible, un Código de Conducta debe definir:

  • Casos de uso autorizados y prohibidos
  • Requisitos de documentación
  • Acceso a la documentación
  • Procedimientos de supervisión
  • Mecanismos de control.

DiliTrust, por ejemplo, tiene un Código de Conducta de la IA. Este documento traduce los principios básicos de la gobernanza de la IA en compromisos concretos como:

  • Supervisión humana en los flujos de decisión.
  • Desarrollos propios de IA
  • Normas de protección de datos y cumplimiento
  • Transparencia en el uso de la IA

En lugar de basarse en directrices genéricas, un código de conducta demuestra que la gobernanza de la IA está integrada directamente en los procesos y operaciones.

Aplicar las directrices y el código de conducta

Por último, la aplicación es fundamental. Requiere una comunicación clara entre los equipos, programas de formación y una supervisión continua. Para tener éxito, las organizaciones pueden apoyarse en especialistas en IA y en las nuevas funciones corporativas emergentes que hemos mencionado anteriormente. Las revisiones periódicas permiten que el marco evolucione junto con el cambio tecnológico.

Principales retos actuales de la gobernanza de la IA

Innovación rápida frente a cumplimiento

En el auge de la IA, las capacidades se expanden más rápido de lo que pueden adaptarse la mayoría de los marcos de control interno. Los sistemas generativos, los modelos predictivos y las herramientas autónomas aumentan continuamente su alcance e influencia, desafiando a las organizaciones:

  • Expansión continua del riesgo: Cada nueva función o tecnología desplegada puede conllevar una nueva exposición legal y operativa.
  • Riesgos de múltiples actores: Debido a su ecosistema de múltiples actores, la IA depende de proveedores en la nube, API y, a menudo, modelos de código abierto. Esto hace que sea más difícil determinar quién es responsable de qué.
  • IA abierta frente a IA privada: las herramientas de IA alojadas externamente aumentan la dependencia de terceros y siguen siendo muy utilizadas. En estas circunstancias, las responsabilidades pueden difuminarse fácilmente.

Complejidad normativa

En la actualidad, la gobernanza de la IA se encuentra en un panorama normativo fragmentado, lo que plantea varios retos:

  • Retraso en la gobernanza: Las capacidades de la IA evolucionan más rápido que los controles internos y los procesos de revisión. La rápida evolución de las políticas puede exponer a las empresas a mayores riesgos legales y de seguridad.
  • Normativa local frente a normativa mundial: Para las empresas multinacionales, los marcos y obligaciones dependen de la región. Por ejemplo, la Ley de IA de la UE ha introducido normas estructuradas, mientras que en Estados Unidos no existe una ley federal integral sobre IA.

Una nueva base operativa

La gobernanza de la IA es más que un marco teórico. Es la base que permite a las organizaciones innovar con IA al tiempo que mantienen la responsabilidad, el cumplimiento y la confianza.

A medida que la IA se integra en la toma de decisiones básicas, la gobernanza de la IA se convierte en un elemento fundamental para la resistencia y la credibilidad a largo plazo. Solo las organizaciones que aplican una estrategia de gobernanza clara en torno a sus desarrollos de IA pueden esperar seguir estando preparadas para el futuro.