
La Regulación de la Inteligencia Artificial: ¿limitación o desarrollo?
La historia indica que toda innovación tecnológica con potencial de intervenir de manera sustantiva en la vida social ha sido objeto de regulación estatal. Entendemos que como entidades responsables de procurar el bien común, los Estados nacionales tienen la prerrogativa de establecer aquellos límites que una tecnología debe respetar, tanto en su desarrollo como en su implementación, para proteger a la sociedad de sus posibles impactos negativos.
La IA frente al fenómeno regulatorio
La IA es un motor tecnológico para el desarrollo de herramientas, productos y servicios relativamente emergentes y con un potencial de desarrollo exponencial que extiende sus posibilidades de impacto en todos los ámbitos de lo humano. En este sentido, resulta prioritario para los Estados establecer criterios de regulación que les sean comunes debido a que los alcances de la IA rebasan las fronteras políticas y territoriales. Lo anterior ha dado lugar a un escenario altamente complejo pues, aunque la finalidad de la regulación de la IA es clara para todos en el ámbito de la protección de lo humano, los beneficios que se desprenden de ella en ámbitos como la seguridad nacional o la búsqueda de la vanguardia tecnológica han llevado a los diferentes actores estatales a plantearse cuáles son los límites de esta tecnología que les resultan más convenientes.
Consenso y disenso
El consenso a nivel deontológico general parece ser claro: la IA debe ser diseñada y utilizada para garantizar que sea segura, ética y respetuosa con los derechos humanos. Pero el problema se encuentra en el detalle: qué aspectos concretos del desarrollo y del uso de la IA deben ser limitados sin con ello limitar los beneficios que se pueden desprender de ella para fines estatales y privados. Ante esta disyuntiva, distintas regiones del mundo han avanzado en establecer regulaciones acordes con sus expectativas de beneficio social, minimización de riesgos y maximización de rendimientos estatales y privados que, sin embargo, no han logrado ser homogéneas o necesariamente vinculantes. Consideremos el caso de los dos más importantes intentos de regulación:
La Ley de Inteligencia Artificial (AI Act) de la Unión Europea, aprobada en 2024, establece reglas para el desarrollo y uso de la IA centradas en los riesgos asociados a su uso económico, político y social. Europa enfatiza la prohibición de la IA para la vigilancia estatal de la población a falta de un debido control judicial. Así también establece los requisitos que deben cumplir los sistemas basados en IA asociados a los servicios de salud y a la procuración de justicia.
Por su parte, los Estados Unidos, de forma más mesurada con respecto a las posibles desventajas estratégicas que acarrearía una regulación demasiado “prematura”, no cuenta con una ley federal integral, y sólo ha emitido a través de la Casa Blanca un Acta de Derechos sobre IA -la AI Bill of Rights de 2022- que establece los principios orientadores para la búsqueda de regulaciones sectoriales y guías ejecutivas para los desarrolladores.
Hacia una regulación oportuna y eficaz
La pregunta que parece estar en el aire es: ¿Cuándo es el momento más oportuno para regular una tecnología que aún se encuentra gestando su potencial de desarrollo, y por ende, su umbral de riesgo-beneficio?
Una regulación altamente previsora centrada en los riesgos puede limitar los alcances de desarrollo y con ello de rendimiento y beneficio. Pero a su vez, una regulación demasiado permisiva, centrada en los beneficios inmediatos o sectoriales (gubernamentales y privados) podría desatender desarrollos y usos perniciosos para el ser humano. Es un hecho que las regulaciones deben imponer límites, pero siempre teniendo como objetivo guiar la innovación y el desarrollo de la tecnología hacia usos responsables y sostenibles. Sólo en este sentido el balance riesgo / beneficio podrá ser favorable para una sociedad que no se puede ya plantear vivir sin IA.