Ética para la IA: desnaturalización y responsabilidad
Dentro de las posiciones éticas que enfatizan el control humano sobre la Inteligencia Artificial, destacan las reflexiones de Kate Crawford, investigadora del Microsoft Research de Nueva York, especializada en las implicaciones sociales de la IA dentro de la colaboración entre máquinas y humanos.
En su libro libro Atlas of Artificial Intelligence: Power, Politics, and the Planetary Costs (Yale University Press, 2021), Crawford sostiene que nuestra relación con la IA debe “desnaturalizarse”, esto es, partir de que no es un objeto inalterable independiente de nosotros, sino el producto de una relación social que debe ser cuidada y dirigida.
Infraestructura extractiva
Para Crawford, la Inteligencia Artificial, a diferencia de lo que comúnmente se piensa, no es una tecnología inmaterial y socialmente neutra, por el contrario, la IA descansa en una estructura material que, como desarrollos industriales similares, consume enormes recursos naturales. Para la autora, esta cuantiosa inversión de capital natural y energético se hace evidente en el alto costo de la minería dedicada a la extracción de metales de tierras raras (ETR) -indispensables para la fabricación de los soportes tecnológicos de la IA-, y en la gran cantidad de energía que requieren los centros de almacenamiento y procesamiento de datos sobre los que descansa la operación de los dispositivos e interfaces inteligentes.
Neutralidad y vigilancia
Crawford señala además que esta cuantiosa inversión no nos ha permitido alcanzar todavía una IA exenta de sesgos algorítmicos. Los modelos actuales de Inteligencia Artificial se alimentan de datos históricos, estadísticos, biométricos y sociales que pueden estar sesgados de origen. En este sentido, señala la autora, no hemos logrado desarrollar una tecnología inteligente de uso masivo capaz de detectar sesgos en su diseño, por lo que la IA actual tiende a reproducir y amplificar de forma indirecta relaciones de desigualdad.
Crawford mira con preocupación la concentración de poder que rodea al desarrollo de la Inteligencia Artificial. Como toda tecnología, el desarrollo de la IA está a cargo de un número reducido de corporaciones cuyos avances son supervisados y potencialmente capitalizados por los gobiernos de los países a los que pertenecen o acogen a dichas corporaciones. Bajo estas condiciones, señala la autora, existe un riesgo real de que los sistemas inteligentes capaces de controlar, clasificar y predecir el comportamiento humano sean utilizados de forma no supervisada con fines de lucro, control social o vigilancia estatal.
IA como relación social
Frente a estas condiciones que hasta ahora parecen ineludibles, Crawford propone desmontar la preconcepción de IA como un objeto técnico, y replantear su existencia como un fenómeno social, político y cultural que surge de la interacción entre máquinas inteligentes y humanos. Esta interacción, como cualquier otra forma de relación social, debe ser abordada desde un enfoque ético interdisciplinario que tome como base los derechos humanos, la sostenibilidad ambiental, la necesidad de transparencia y la búsqueda de justicia social.
Naturalización vs Humanización
Desnaturalizar nuestra concepción de la IA nos permitirá como sociedad interrogarnos sobre sus condiciones de posibilidad y sobre la necesidad de ejercer una relación responsable con ella: verificar la neutralidad y calidad de los datos de alimentación, promover una cultura corporativa de transparencia y autocorrección ética desde el diseño, generar mecanismos sociales que permitan limitar el uso de la IA con fines de control social y, sobre todo, conducir nuestra relación con los dispositivos inteligentes como lo hacemos con otros seres humanos: partir de la premisa de que toda relación debe tener como fin último el bien común.

