La posverdad y la inteligencia artificial: entre la emoción y los hechos

Vivimos en una época marcada por una transformación profunda en la forma en que las personas consumen y procesan la información. Esta transformación ha dado lugar a un fenómeno cultural, político y mediático conocido como posverdad. La palabra, que une el prefijo “pos-” con “verdad”, no implica la ausencia total de verdad, sino una condición en la que los hechos objetivos tienen menor influencia en la formación de la opinión pública que los sentimientos personales o las creencias preexistentes. Este fenómeno fue reconocido oficialmente en 2016, cuando el Oxford Dictionary eligió post-truth como la Palabra del Año, definiéndola como una situación en la que “los hechos objetivos son menos influyentes en la formación de la opinión pública que los llamamientos a la emoción y a las creencias personales”.

En la práctica, la posverdad describe un cambio profundo en la relación entre la verdad, los medios de comunicación, y el público. Se trata de una tendencia en la que lo que importa no es si una afirmación es verdadera o falsa, sino si refuerza una narrativa emocionalmente poderosa o políticamente conveniente. Por ejemplo, en campañas políticas recientes, se han difundido datos inexactos o directamente falsos que han influido en millones de votantes, no porque creyeran en la veracidad de esos datos, sino porque estos resonaban con sus miedos, prejuicios o aspiraciones. La veracidad, entonces, pasa a un segundo plano.

Los riesgos de esta situación son múltiples y profundos. En primer lugar, se erosiona la confianza en las instituciones que tradicionalmente han sido garantes del conocimiento, como las universidades, los medios de comunicación serios o los organismos científicos. Si cualquier afirmación —por absurda que sea— puede ganar tracción simplemente porque “se siente” verdadera, entonces desaparece el consenso básico necesario para el diálogo democrático.

En segundo lugar, la posverdad alimenta la polarización social. Las personas tienden a rodearse de información que confirma sus puntos de vista, en lo que se conoce como cámaras de eco o burbujas informativas. Dentro de estas burbujas, las opiniones se radicalizan y se hace más difícil encontrar puntos comunes con quienes piensan distinto. La conversación pública se fragmenta, y el debate deja de ser un intercambio racional de argumentos para convertirse en un enfrentamiento emocional entre grupos cerrados.

Además, en un contexto de posverdad, las noticias falsas (o fake news) pueden propagarse más rápido y tener un impacto más duradero que las verdaderas. Las emociones como el miedo, la indignación o el rechazo son poderosos motores de viralización. Esto representa un riesgo serio para la salud pública, la estabilidad política y la cohesión social. Ejemplos recientes, como la desinformación durante la pandemia de COVID-19, han demostrado que la posverdad puede costar vidas.

En este escenario, la inteligencia artificial (IA) ocupa un lugar central. Por un lado, ofrece herramientas poderosas para combatir la desinformación. Por ejemplo, existen sistemas que utilizan algoritmos de IA para identificar patrones comunes en las noticias falsas, verificar datos en tiempo real, o incluso detectar imágenes manipuladas. Organizaciones de verificación y medios de comunicación han comenzado a integrar estas tecnologías para mejorar la precisión y velocidad de su trabajo.

Sin embargo, la misma tecnología que puede ayudar a desenmascarar la mentira también puede ser usada para generarla. El desarrollo de modelos generativos —como los que permiten crear deepfakes de video, audio o imágenes— ha elevado la sofisticación de los contenidos falsos a niveles alarmantes. Hoy en día, es posible producir videos en los que una figura pública dice cosas que nunca dijo, con una apariencia casi indistinguible de la realidad. Estos contenidos no sólo confunden al público, sino que también generan desconfianza generalizada, ya que se vuelve más difícil discernir qué es real y qué no.

Otro problema importante es el uso de la IA en los algoritmos de recomendación de las redes sociales. Estas plataformas priorizan el contenido que genera mayor interacción, y ese contenido suele ser el más emocional o polémico, no necesariamente el más veraz. Así, los algoritmos, al estar diseñados para maximizar el tiempo que una persona pasa en la plataforma, terminan amplificando discursos extremos o falsos. Esto contribuye directamente al clima de posverdad, donde las afirmaciones virales pesan más que los hechos comprobables.

La personalización que permite la IA también tiene un costado peligroso. Las campañas de desinformación pueden dirigirse con precisión a ciertos grupos sociales o ideológicos, utilizando sus datos para construir mensajes que apelan a sus emociones específicas. Esta microsegmentación dificulta el control de la desinformación y aumenta la fragmentación del espacio público.

La solución al problema de la posverdad no puede depender sólo de la tecnología. Aunque la IA puede ayudar a combatir la desinformación, también es necesario fomentar una ciudadanía crítica, con habilidades para analizar información, reconocer sesgos y verificar fuentes. La educación mediática debe ocupar un lugar central en los sistemas educativos, desde edades tempranas.

Al mismo tiempo, los desarrolladores de tecnología y los gobiernos deben asumir su responsabilidad. Es urgente establecer marcos éticos y legales que regulen el uso de la IA, especialmente en el ámbito de la información pública. La transparencia en los algoritmos, la rendición de cuentas y la colaboración entre plataformas tecnológicas, periodistas y educadores serán claves para construir una sociedad menos vulnerable a la manipulación.

En definitiva, la posverdad no es un fenómeno pasajero ni limitado a ciertos países o contextos. Es un desafío global que pone a prueba nuestra capacidad colectiva para valorar la verdad por encima del impacto emocional. Y en esa lucha, la inteligencia artificial puede ser tanto una aliada como una amenaza, dependiendo de cómo decidamos utilizarla.

La Unidad de Inteligencia e Interpretación (SIU) de Celestial Dynamics transforma datos en estrategias accionables mediante análisis avanzado, estudios de mercado y evaluación de tendencias en IA y HPC. Su misión es proporcionar insights clave para la toma de decisiones en negocios, políticas públicas y transformación digital, optimizando el impacto de la tecnología en múltiples sectores.