La gestión de la opacidad en la Inteligencia Artificial: el aporte del marco LoBOX

La creciente complejidad de los sistemas de inteligencia artificial (IA) ha reavivado el debate sobre su opacidad, entendida como la dificultad de comprender sus procesos internos y la lógica detrás de sus decisiones. Este problema no solo tiene implicaciones técnicas, sino también éticas y de gobernanza, ya que afecta la confianza que los usuarios depositan en estas tecnologías.

En este contexto, Francisco Herrera, investigador de la Universidad de Granada y Reyes Calderón, investigador de la Universidad Pontificia de Comillas, en su artículo conjunto “Opacity as a Feature, Not a Flaw: The LoBOX Governance Ethic for Role-Sensitive Explainability and Institutional Trust in AI” (arXiv, 2025),  proponen el marco LoBOX (Lack of Belief: Opacity and eXplainability), una propuesta que replantea la opacidad no como un defecto a eliminar por completo, sino como una característica a gestionar de manera estratégica. Según los autores, el objetivo es “transformar la falta de creencia ciega en la máquina en confianza fundamentada”, a través de medidas diferenciadas según el tipo de opacidad.

Opacidad técnica y conceptual

Herrera y Calderón identifican que la opacidad puede originarse en múltiples factores. En primer lugar, está la opacidad técnica, derivada de la arquitectura interna de modelos complejos como las redes neuronales profundas, cuyo funcionamiento no es fácilmente rastreable. A esto se suma la opacidad intencional, producto de decisiones comerciales o de seguridad que restringen el acceso a información clave. Finalmente, existe una opacidad inevitable, propia de la naturaleza de ciertos sistemas que, aunque documentados, resultan demasiado intrincados para ser comprendidos por no especialistas. Reconocer estas diferencias permite formular estrategias adaptadas a cada caso y evitar soluciones genéricas que resulten ineficaces.

Reducción de la opacidad accidental

La primera línea de acción que propone LoBOX se centra en disminuir la opacidad accidental, es decir, aquella causada por una mala documentación o por la ausencia de explicaciones claras. Para ello, los autores sugieren el desarrollo de herramientas de explicabilidad técnica, la estandarización en la presentación de datos y procesos, y la implementación de reportes de trazabilidad. Estas medidas no pretenden revelar cada detalle del funcionamiento interno, sino garantizar que la información esencial esté disponible para quienes deban evaluarla, aumentando así la transparencia operativa y reduciendo la incertidumbre innecesaria.

Acotamiento de la opacidad inevitable

Cuando la opacidad no puede eliminarse sin comprometer la utilidad del sistema, LoBOX propone estrategias de acotamiento. Esto implica ofrecer explicaciones calibradas según el tipo de usuario: al público general, descripciones accesibles y analogías; a auditores, documentación técnica detallada; y a reguladores, evidencia verificable de cumplimiento normativo. De esta forma, la transparencia se adapta al nivel de especialización y a las necesidades del interlocutor, evitando tanto la sobrecarga de información como la simplificación excesiva.

Delegación de confianza y gobernanza institucional

Un elemento clave del marco LoBOX es la noción de que, en ciertos casos, la confianza no debe recaer directamente en el entendimiento individual del sistema, sino en mecanismos institucionales de verificación. Esto incluye la certificación por terceros independientes, auditorías periódicas y la definición clara de responsabilidades legales. Herrera y Calderón sostienen que este enfoque “permite que la confianza se construya sobre la base de estructuras verificables y no sobre suposiciones” (2025, p. 5). Así, se establece un puente entre la imposibilidad técnica de comprender un sistema en su totalidad y la necesidad práctica de confiar en él.

Una opacidad operativa y confiable

La propuesta de Herrera y Calderón aporta un marco pragmático para abordar uno de los retos más persistentes de la IA: su opacidad. Al reconocer que no toda opacidad es negativa ni eliminable, LoBOX abre la puerta a estrategias realistas que combinan explicabilidad, adaptación comunicativa y confianza institucional. Esta visión resulta particularmente relevante en un momento en que la regulación internacional busca equilibrar innovación y seguridad. Al ofrecer un enfoque diferenciado y operativo, el marco no solo contribuye al debate académico, sino que también ofrece herramientas aplicables a la industria y a la formulación de políticas públicas.

Referencias

Herrera, F., & Calderón, R. (2025). Opacity as a Feature, Not a Flaw: The LoBOX Governance Ethic for Role-Sensitive Explainability and Institutional Trust in AI. arXiv. https://arxiv.org/abs/2505.20304

La Unidad de Inteligencia e Interpretación (SIU) de Celestial Dynamics transforma datos en estrategias accionables mediante análisis avanzado, estudios de mercado y evaluación de tendencias en IA y HPC. Su misión es proporcionar insights clave para la toma de decisiones en negocios, políticas públicas y transformación digital, optimizando el impacto de la tecnología en múltiples sectores.