IA generativa y conocimiento: usos, tensiones y normatividad emergente

La irrupción de los modelos de lenguaje de gran escala (LLM), como ChatGPT, ha desencadenado una transformación profunda en los modos de producción, circulación y validación del conocimiento. En pocos años, estas herramientas han pasado de ser curiosidades tecnológicas a convertirse en instrumentos cotidianos en la escritura académica, la enseñanza, la divulgación científica y la producción de contenidos. Sin embargo, su incorporación no ha sido lineal ni consensuada: ha generado simultáneamente entusiasmo, reticencia, rechazo y la necesidad urgente de establecer marcos normativos institucionales.

Recepción y aceptación: entre entusiasmo y adopción pragmática

La evidencia empírica reciente muestra que la aceptación de herramientas como ChatGPT en la educación superior está creciendo de manera sostenida, aunque de forma desigual. Estudios basados en modelos de aceptación tecnológica indican que factores como la facilidad de uso y la utilidad percibida son determinantes clave en la adopción por parte de estudiantes y docentes. En particular, la expectativa de mejora del rendimiento académico y la eficiencia en tareas cognitivas favorece su incorporación.

Desde el punto de vista pedagógico, diversos trabajos señalan que los LLM pueden mejorar la comprensión, facilitar el aprendizaje personalizado y estimular el pensamiento de orden superior cuando se utilizan como herramientas de apoyo. Esta dimensión ha llevado a muchos docentes a considerar la IA no como una amenaza, sino como un recurso complementario en el proceso educativo.

No obstante, la adopción no implica necesariamente integración plena. La evidencia sugiere que el uso habitual aún no está completamente consolidado, y que su incorporación depende en gran medida del contexto institucional, la formación digital y el grado de familiaridad tecnológica de los usuarios. En este sentido, la aceptación es más pragmática que ideológica: se adopta porque funciona, no porque exista consenso sobre su legitimidad.

Reticencia y rechazo: riesgos epistemológicos y pedagógicos

Junto al entusiasmo, emerge una corriente crítica que cuestiona el impacto de los LLM en la formación intelectual. Diversas investigaciones advierten que el uso intensivo de estas herramientas puede generar dependencia cognitiva, reducir la capacidad crítica y favorecer la homogenización del discurso académico.

Uno de los principales problemas señalados es el desplazamiento del esfuerzo cognitivo. Si la producción de textos puede automatizarse, existe el riesgo de que los estudiantes deleguen procesos fundamentales como la argumentación, la síntesis o la interpretación. Esto no solo afecta el aprendizaje, sino también la naturaleza misma del trabajo académico.

Además, estudios recientes muestran que no existe consenso sobre los efectos de la IA en el rendimiento académico: mientras algunos evidencian mejoras, otros señalan efectos negativos o nulos, especialmente cuando se utiliza de manera acrítica. Esta ambivalencia refuerza la percepción de que la IA no es inherentemente beneficiosa ni perjudicial, sino que su impacto depende del modo de uso.

Normatividad institucional: entre prohibición, regulación y adaptación

Ante esta situación, las instituciones educativas han comenzado a desarrollar políticas específicas para regular el uso de IA. La evidencia comparada muestra una gran diversidad de enfoques: desde prohibiciones explícitas en evaluaciones hasta modelos de integración controlada.

Un hallazgo relevante es que la mayoría de las universidades no opta por la prohibición total. Más bien, tienden a permitir el uso de IA en contextos de aprendizaje, pero restringen su uso en evaluaciones formales o exigen su declaración explícita. Este enfoque refleja una transición desde una lógica de control hacia una lógica de gestión.

Asimismo, la normatividad emergente incorpora nuevos principios:

  • Transparencia en el uso de IA
  • Responsabilidad del autor humano
  • Trazabilidad del proceso de producción
  • Promoción de la alfabetización en IA

Estos elementos configuran una nueva ética académica, en la que el problema ya no es el uso de la herramienta en sí, sino la forma en que se integra en el proceso de conocimiento.

Usos adecuados e inadecuados: una distinción necesaria

La literatura reciente converge en la necesidad de distinguir entre usos adecuados e inadecuados de los LLM en contextos académicos.

Usos adecuados

  • Apoyo en la comprensión de conceptos
  • Generación de ideas iniciales
  • Organización de información
  • Asistencia en procesos de revisión y edición

En estos casos, la IA funciona como una herramienta cognitiva que amplía las capacidades del usuario sin sustituir su juicio.

Usos inadecuados

  • Generación íntegra de trabajos académicos
  • Sustitución del proceso de aprendizaje
  • Producción de contenido sin verificación
  • Uso no declarado en evaluaciones

Estos usos comprometen la integridad académica y distorsionan los objetivos formativos.

Virtudes y riesgos: una tecnología ambivalente

La investigación actual coincide en que los LLM poseen un carácter profundamente ambivalente. Por un lado, democratizan el acceso al conocimiento, reducen barreras lingüísticas y facilitan la producción de contenido. Por otro, introducen riesgos relacionados con la veracidad, la dependencia y la desigualdad.

Estudios recientes muestran que, aunque los LLM pueden mejorar la calidad de la escritura, también pueden amplificar desigualdades, beneficiando más a usuarios con mayores competencias previas. Esto sugiere que la IA no elimina las brechas existentes, sino que puede reconfigurarlas.

Asimismo, la facilidad de uso puede generar una ilusión de comprensión: el usuario accede a respuestas correctas sin necesariamente desarrollar el proceso cognitivo que las sustenta. En este sentido, el riesgo no es solo técnico, sino epistemológico.

Hacia una nueva cultura del conocimiento

La integración de los modelos de lenguaje en la academia no puede entenderse como una simple incorporación tecnológica. Se trata de una transformación que afecta la manera en que se produce, valida y transmite el conocimiento. La evidencia disponible muestra que ni la aceptación acrítica ni el rechazo absoluto constituyen respuestas adecuadas. La cuestión central no es si la IA debe utilizarse, sino bajo qué condiciones puede integrarse de manera responsable y formativa. En este contexto, el desafío para las instituciones académicas no es solo normativo, sino cultural: formar sujetos capaces de utilizar estas herramientas sin renunciar a su capacidad crítica, su autonomía intelectual y su responsabilidad epistemológica.

Para saber más...

La Unidad de Inteligencia e Interpretación (SIU) de Celestial Dynamics transforma datos en estrategias accionables mediante análisis avanzado, estudios de mercado y evaluación de tendencias en IA y HPC. Su misión es proporcionar insights clave para la toma de decisiones en negocios, políticas públicas y transformación digital, optimizando el impacto de la tecnología en múltiples sectores.