La gestión de la opacidad en la Inteligencia Artificial: el aporte del marco LoBOX
La creciente complejidad de los sistemas de inteligencia artificial (IA) ha reavivado el debate sobre su opacidad, entendida como la dificultad de comprender sus procesos internos y la lógica detrás de sus decisiones. Este problema no solo tiene implicaciones técnicas, sino también éticas y de gobernanza, ya que afecta la confianza que los usuarios depositan en estas tecnologías.
En este contexto, Francisco Herrera, investigador de la Universidad de Granada y Reyes Calderón, investigador de la Universidad Pontificia de Comillas, en su artículo conjunto “Opacity as a Feature, Not a Flaw: The LoBOX Governance Ethic for Role-Sensitive Explainability and Institutional Trust in AI” (arXiv, 2025), proponen el marco LoBOX (Lack of Belief: Opacity and eXplainability), una propuesta que replantea la opacidad no como un defecto a eliminar por completo, sino como una característica a gestionar de manera estratégica. Según los autores, el objetivo es “transformar la falta de creencia ciega en la máquina en confianza fundamentada”, a través de medidas diferenciadas según el tipo de opacidad.
Opacidad técnica y conceptual
Herrera y Calderón identifican que la opacidad puede originarse en múltiples factores. En primer lugar, está la opacidad técnica, derivada de la arquitectura interna de modelos complejos como las redes neuronales profundas, cuyo funcionamiento no es fácilmente rastreable. A esto se suma la opacidad intencional, producto de decisiones comerciales o de seguridad que restringen el acceso a información clave. Finalmente, existe una opacidad inevitable, propia de la naturaleza de ciertos sistemas que, aunque documentados, resultan demasiado intrincados para ser comprendidos por no especialistas. Reconocer estas diferencias permite formular estrategias adaptadas a cada caso y evitar soluciones genéricas que resulten ineficaces.
Reducción de la opacidad accidental
La primera línea de acción que propone LoBOX se centra en disminuir la opacidad accidental, es decir, aquella causada por una mala documentación o por la ausencia de explicaciones claras. Para ello, los autores sugieren el desarrollo de herramientas de explicabilidad técnica, la estandarización en la presentación de datos y procesos, y la implementación de reportes de trazabilidad. Estas medidas no pretenden revelar cada detalle del funcionamiento interno, sino garantizar que la información esencial esté disponible para quienes deban evaluarla, aumentando así la transparencia operativa y reduciendo la incertidumbre innecesaria.
Acotamiento de la opacidad inevitable
Cuando la opacidad no puede eliminarse sin comprometer la utilidad del sistema, LoBOX propone estrategias de acotamiento. Esto implica ofrecer explicaciones calibradas según el tipo de usuario: al público general, descripciones accesibles y analogías; a auditores, documentación técnica detallada; y a reguladores, evidencia verificable de cumplimiento normativo. De esta forma, la transparencia se adapta al nivel de especialización y a las necesidades del interlocutor, evitando tanto la sobrecarga de información como la simplificación excesiva.

Delegación de confianza y gobernanza institucional
Un elemento clave del marco LoBOX es la noción de que, en ciertos casos, la confianza no debe recaer directamente en el entendimiento individual del sistema, sino en mecanismos institucionales de verificación. Esto incluye la certificación por terceros independientes, auditorías periódicas y la definición clara de responsabilidades legales. Herrera y Calderón sostienen que este enfoque “permite que la confianza se construya sobre la base de estructuras verificables y no sobre suposiciones” (2025, p. 5). Así, se establece un puente entre la imposibilidad técnica de comprender un sistema en su totalidad y la necesidad práctica de confiar en él.
Una opacidad operativa y confiable
La propuesta de Herrera y Calderón aporta un marco pragmático para abordar uno de los retos más persistentes de la IA: su opacidad. Al reconocer que no toda opacidad es negativa ni eliminable, LoBOX abre la puerta a estrategias realistas que combinan explicabilidad, adaptación comunicativa y confianza institucional. Esta visión resulta particularmente relevante en un momento en que la regulación internacional busca equilibrar innovación y seguridad. Al ofrecer un enfoque diferenciado y operativo, el marco no solo contribuye al debate académico, sino que también ofrece herramientas aplicables a la industria y a la formulación de políticas públicas.
Referencias
Herrera, F., & Calderón, R. (2025). Opacity as a Feature, Not a Flaw: The LoBOX Governance Ethic for Role-Sensitive Explainability and Institutional Trust in AI. arXiv. https://arxiv.org/abs/2505.20304


