Hacia sistemas de IA responsables: confiabilidad, gobernanza, ética y cultura.

En el debate contemporáneo sobre ética de la inteligencia artificial, una de las preocupaciones centrales es cómo traducir principios abstractos —como justicia, transparencia o responsabilidad— en marcos de acción que orienten el diseño y la implementación de sistemas tecnológicos a escala global.

Dentro de este ámbito, el trabajo “Sistemas de Inteligencia artificial responsables: una hoja de ruta hacia la confianza de la sociedad a través de una IA confiable, con audibilidad, rendición de cuentas y gobernanza” de Andrés Herrera-Poyatos, Javier del Ser, y otros (2025), se inscribe en la línea de la ética aplicada y regulatoria, al proponer un modelo integral que funcione como un itinerario necesario para el desarrollo de sistemas de IA responsables. La propuesta no se limita a aspectos técnicos, sino que articula dimensiones legales, sociales y culturales que buscan consolidar la confianza pública.

Contexto regulatorio como cimiento

El primer pilar identificado por los autores es el contexto regulatorio, entendido como el marco legal y normativo que define los límites de acción de la IA. En este sentido, subrayan que la ética no puede sostenerse únicamente en la buena voluntad de las empresas o de los investigadores, sino que requiere leyes claras y mecanismos de supervisión. El planteamiento de los autores coincide con tendencias recientes en Europa y América del Norte, donde se trabaja en actos legislativos especializados en IA, con el objetivo de prevenir daños sociales y establecer estándares de responsabilidad civil y penal. De este modo, el contexto regulatorio se convierte en la base sobre la que descansan los demás componentes de la propuesta.

Tecnologías “trustworthy” como garantía técnica

El segundo pilar es el desarrollo de tecnologías confiables o “trustworthy”, categoría que engloba sistemas diseñados con criterios de seguridad, robustez, interpretabilidad y equidad. Según los autores, la confianza pública no se gana únicamente con declaraciones éticas, sino mediante arquitecturas técnicas verificables que minimicen sesgos, errores y vulnerabilidades. La noción de “trustworthy AI” ya había sido introducida por organismos como la Unión Europea, pero la aportación de la propuesta de los autores es integrarla en una hoja de ruta práctica, vinculando directamente la dimensión técnica con la legitimidad social y cultural de los sistemas.

Auditabilidad como mecanismo de control

Un tercer eje esencial de la propuesta es la auditabilidad, es decir, la capacidad de someter los sistemas de IA a revisiones independientes y continuas. Este punto es relevante porque rompe con la lógica de la “caja negra” que tradicionalmente ha caracterizado a los algoritmos complejos. Los autores defienden que la posibilidad de auditar permite identificar riesgos, corregir errores y generar trazabilidad de decisiones. Además, este principio de apertura no se limita a la fase de diseño, sino que se extiende a todo el ciclo de vida del sistema, garantizando una supervisión dinámica y adaptable al cambio tecnológico.

Gobernanza ética y dimensión cultural

El último pilar de la hoja de ruta es la gobernanza ética, entendida como un conjunto de prácticas organizacionales y sociales que permiten que los sistemas de IA se gestionen con criterios de justicia, inclusión y sostenibilidad. Los autores insisten en que la ética no puede reducirse a un listado de principios universales, sino que debe contemplar la diversidad cultural y económica global. Esto implica reconocer que los impactos de la IA varían según el contexto, y que las comunidades deben tener voz en la manera en que estas tecnologías son implementadas. En este punto, la gobernanza se convierte en un espacio de negociación colectiva que conecta la técnica con la vida social.

Tecnología, ética y cultura

La propuesta de los autores representa un esfuerzo por dar concreción a la ética de la IA a través de un modelo integral -y sobre todo, viable- basado en los cuatro pilares revisados: regulación, tecnologías confiables, auditabilidad y gobernanza ética. Este enfoque novedoso articula lo jurídico, lo técnico y lo cultural, ofreciendo un camino pragmático para construir sistemas que merezcan la confianza de la sociedad. En un escenario donde la inteligencia artificial avanza más rápido que las legislaciones y las prácticas sociales, la hoja de ruta planteada resulta especialmente valiosa, pues invita a un equilibrio entre innovación y responsabilidad.

Referencias

Herrera-Poyatos, D., et al. (2025). Responsible Artificial Intelligence Systems: A Roadmap to Society’s Trust through Trustworthy AI, Auditability, Accountability, and Governance. arXiv. Disponible en: https://arxiv.org/abs/2503.04739

Floridi, L., & Cowls, J. (2021). A unified framework of five principles for AI in society. Harvard Data Science Review, 3(1). Disponible en: https://doi.org/10.1162/99608f92.8cd550d1

La Unidad de Inteligencia e Interpretación (SIU) de Celestial Dynamics transforma datos en estrategias accionables mediante análisis avanzado, estudios de mercado y evaluación de tendencias en IA y HPC. Su misión es proporcionar insights clave para la toma de decisiones en negocios, políticas públicas y transformación digital, optimizando el impacto de la tecnología en múltiples sectores.