La inteligencia artificial ya no es un tema del futuro. Pero como toda herramienta poderosa, su impacto dependerá del propósito con el que se use y los valores que le den forma. Por eso, hablar hoy de ética en la IA no es un lujo filosófico, es una necesidad estratégica para cualquier empresa que quiera liderar con sentido. La ética en la IA puede formar parte del gobierno corporativo?
Ética e inteligencia artificial no son fuerzas opuestas. Por el contrario, cuando se integran desde el inicio, se convierten en una alianza poderosa capaz de impulsar innovaciones profundas, sostenibles y muy humanas. La ética no frena, orienta. No es una capa que se aplica después del desarrollo, es la base sobre la cual se debe construir cada algoritmo, cada sistema, cada decisión asistida por tecnología.
Desde 2019, la Ocde ha propuesto cinco principios esenciales que ya marcan la pauta a nivel global: la IA debe beneficiar al bienestar humano y del planeta; respetar los derechos humanos y los valores democráticos; ser transparente y comprensible; ser robusta, segura y confiable; y, lo más importante, debe estar siempre bajo la responsabilidad directa del ser humano. Estos principios han sido adoptados por muchos países como estándar para una IA confiable.
La Unión Europea dio un paso histórico al aprobar en 2024 su Ley de Inteligencia Artificial, clasificando los sistemas según su nivel de riesgo y exigiendo altos estándares éticos en aquellos de mayor impacto. En su centro, esta ley exige transparencia, protección de datos, supervisión humana significativa y eliminación de sesgos y discriminaciones.
En Colombia, también hemos avanzado. La actual Política Nacional de IA, alineada con los principios de la Ocde, impulsa un uso ético centrado en los derechos humanos, la diversidad, la inclusión y la participación ciudadana. Esto plantea un llamado claro al empresariado para integrar principios éticos como parte de su modelo de gestión, de su liderazgo y de su reputación.
La Comunidad Andina de Naciones, la Unesco y otros organismos multilaterales coinciden: la IA debe fomentar la equidad, el desarrollo sostenible, la diversidad cultural y, sobre todo, debe mantenerse siempre bajo el control de quienes la crean y la usan: las personas.
Y aquí es donde el mensaje se vuelve más profundo. No se trata solo de supervisar la IA: se trata de que el hombre sea el centro. Porque solo el ser humano tiene la capacidad de decidir con empatía, con criterio, con compasión. Por más sofisticados que sean los sistemas, el rumbo lo define nuestra humanidad. Una IA sin una guía ética puede llevarnos a decisiones controversiales, impersonales o manipuladoras. Pero una IA diseñada y usada con ética puede ser una herramienta extraordinaria para el bien común.
Tan relevante es este tema que el pasado Viernes Santo, en el Viacrucis del Coliseo Romano, se elevó una oración por el desafío de una economía que mata, de sociedades que convierten personas en números, donde la tecnología, si no se humaniza, nos puede hacer sentir omnipotentes, mientras perdemos la capacidad de escuchar y mirar al otro.
Este artículo es un abrebocas. Una invitación, amable y propositiva, a que desde las estructuras corporativas se empiece a reflexionar sobre este tema con más profundidad. ¿Por qué no incluir principios de autoregulación ética sobre el uso de la IA en el gobierno corporativo? No solo es posible, es deseable. Porque la ética, bien entendida, es una fuente de confianza, de reputación y de sostenibilidad para las empresas que piensan en el largo plazo.
Hoy el reto no es solo que la IA funcione, sino que sea justa, explicable, inclusiva y segura. El verdadero desafío es que seamos nosotros, los seres humanos, quienes sigamos al mando. La mesa está servida. Y como líderes empresariales, tenemos mucho por crear, con inteligencia y con conciencia.