La ética de la Inteligencia Artificial: el debate actual

En el debate ético acerca de la Inteligencia Artificial se pueden identificar dos posiciones generales con respecto a cuál es el tipo de marco de prescripciones y mandatos deontológicos que garantice el pleno respeto a la dignidad humana sin interferir el desarrollo tecnológico y los intereses económicos y políticos asociados a esta nueva herramienta tecnológica.

Posición pragmática: desarrolladores y gobiernos

Los enfoques éticos que son considerados adecuados por los desarrolladores de la tecnología y las élites gubernamentales que desean aprovecharla para fines de seguridad y toma de decisiones, tienen en común una preocupación por el uso responsable de la IA sin afectar la innovación tecnológica, la competitividad global y la autorregulación.

Las aportaciones del filósofo Nick Bostrom sobre la superinteligencia o del informático Stuart J. Russell sobre la IA Compatible, basadas en el alineamiento de la IA con las preferencias, intereses y valores humanos universales son paradigmáticas de esta postura. Compartida por instancias como la OCDE o la IEEE, esta postura enfatiza en la necesidad de una IA confiable, centrada en lo humano que priorice la innovación inclusiva, la sostenibilidad y el crecimiento económico responsable.

A esta postura se suman también desarrolladores como OpenAI, Google o DeepMind así como la Comisión de la Unión Europea quienes coinciden en que principios tales como la transparencia, la seguridad, la equidad técnica, la no maleficencia y la escalabilidad con precaución por parte de los desarrolladores, contribuyen a una IA confiable que además respete los derechos fundamentales, la democracia y el Estado de Derecho.

Posición crítica: organizaciones de Derechos Humanos y sociedad civil

Frente a la posición pragmática, pensadoras como Kate Crawford de Microsoft, Virginia Eubanks de la Universidad de Albany o la activista Ruha Benjamin de Princeton, sostienen una posición centrada en la potencial profundización de las desigualdades sociales a causa de un desarrollo de la IA carente de escrutinio y control democrático.

Las autoras ponen sobre la mesa temas como el racismo algorítmico, el uso de la IA como forma de opresión y control gubernamental, la reproducción tecnológica de las desigualdades sociales, los sesgos algorítmicos, la vigilancia tecnológica de clases desfavorecidas, así como el extractivismo y explotación de datos. Estas preocupaciones son compartidas por organismos internacionales como Amnistía Internacional o Human Rights Watch que abogan por una defensa de la privacidad de los usuarios, la prohibición de la autonomía de la IA en decisiones vitales, la oposición al reconocimiento facial como medio de vigilancia masiva y la falta de rendición de cuentas por parte de gobiernos y desarrolladores.

Hacia una ética integral de la IA

Tanto la posición pragmática como la crítica poseen elementos que deben ser recuperados en el interés de alcanzar una posición, si no intermedia, si más integral: la prohibición de los usos nocivos de la IA (armas, vigilancia, discriminación), la rendición de cuentas y la promoción de la justicia algorítmica, que representan el núcleo de las posiciones críticas, son compatibles con el alineamiento de la IA con los Derechos Humanos, la innovación y escalabilidad seguras, la autorregulación, la explicabilidad, la competitividad global responsable y, en general, con la gobernanza de la IA propuesta por la postura pragmática, que brinda un espacio amplio para el desarrollo comercial, la eficacia gubernamental y el escrutinio democrático.

Alcanzar un marco ético integral para la IA requiere de un consenso social amplio, dialógico, técnica, científica y filosóficamente orientado; depurado de extremismos ideológicos, pero atento a las necesidades reales de los grupos humanos que serán sus beneficiarios. Por ello, este debate no puede ser conducido de forma unilateral por ninguno de los actores involucrados, ni debe estar centrado en los intereses exclusivamente gubernamentales o corporativos. En la medida que logremos esta forma de discernimiento colectivo e informado sobre cómo conducir nuestra relación con la Inteligencia Artificial se hará realidad la frase de Jeremy Bentham: “la mayor felicidad para el mayor número”.

La Unidad de Inteligencia e Interpretación (SIU) de Celestial Dynamics transforma datos en estrategias accionables mediante análisis avanzado, estudios de mercado y evaluación de tendencias en IA y HPC. Su misión es proporcionar insights clave para la toma de decisiones en negocios, políticas públicas y transformación digital, optimizando el impacto de la tecnología en múltiples sectores.