El catálogo de medidas inútiles: cómo las universidades están perdiendo la guerra contra la inteligencia artificial

El catálogo de medidas inútiles: cómo las universidades están perdiendo la guerra contra la inteligencia artificial

Existe una escena que se repite en los consejos académicos de medio mundo. Alguien, con expresión grave, propone que los estudiantes firmen una declaración jurada comprometiéndose a no usar inteligencia artificial. Otro sugiere bloquear el WiFi durante los exámenes. Un tercero, más audaz, plantea volver a los exámenes manuscritos. Todos asienten con la satisfacción de quien acaba de resolver un problema. No lo han hecho.

El inventario de medidas adoptadas por universidades en los últimos dos años merece archivarse. La Universidad de Chicago instituyó declaraciones juradas (University of Chicago Provost, s.f.). La Universidad de Bolonia estableció que un porcentaje significativo de los exámenes vuelvan al formato presencial manuscrito, según reportó la prensa italiana. El sistema UT en Texas exploró bloqueos de WiFi durante evaluaciones. Y por supuesto, el recurso favorito: los detectores de IA, esos oráculos digitales que prometen distinguir lo humano de lo artificial con una precisión que ningún lingüista forense se atrevería a reclamar.

Conviene mirar de cerca por qué cada una de estas medidas falla. No por implementación deficiente. Por diseño.

Los detectores de IA: una trampa técnica vendida como solución

El argumento comercial de los detectores es seductor: suben un texto, reciben un porcentaje, toman una decisión. El problema es que ese porcentaje no significa lo que la institución cree que significa.

En 2024, una estudiante de la University of New South Wales fue acusada formalmente de usar ChatGPT después de que Turnitin marcara su trabajo como 85% generado por IA. La estudiante demostró su inocencia porque había grabado la sesión completa de escritura (The Guardian, 2024). El detalle relevante no es la grabación. Es que tuvo que grabarse escribiendo para defenderse de un algoritmo.

En Marquette University, varios estudiantes fueron suspendidos basándose en resultados de GPTZero, y la mayoría de las apelaciones posteriores lograron revertir la sanción. Una tasa de error elevada en sanciones académicas es, técnicamente, lo opuesto a un sistema funcional.

La literatura empírica es consistente con estos casos. Diversos estudios han señalado que los detectores de IA tienden a producir más falsos positivos en textos de escritores no nativos, cuyas construcciones sintácticas más regulares resultan estadísticamente «sospechosas» para los clasificadores (Shiba, 2025). Shiba (2025) revisa explícitamente los problemas estructurales de Turnitin frente a textos producidos con asistencia de IA. Siemens (2013), una década antes de ChatGPT, ya señalaba los riesgos de incorporar herramientas analíticas poco transparentes en la toma de decisiones pedagógicas.

El sesgo contra estudiantes no nativos merece un párrafo aparte. Una política institucional que castiga sistemáticamente a quienes escriben en una segunda lengua no es una política de integridad académica. Es otra cosa.

El síntoma que nadie quiere ver

Hay una pregunta incómoda que los detectores permiten evitar: si una IA generativa puede responder satisfactoriamente una consigna de evaluación, ¿qué estaba midiendo exactamente esa consigna?

Dawson (2020), en su trabajo sobre seguridad de la evaluación, distingue entre dos respuestas posibles ante la amenaza tecnológica. Una es endurecer los controles: vigilar, detectar, prohibir. La otra es rediseñar las tareas para que la asistencia externa deje de ser una ventaja decisiva. La primera respuesta es más barata a corto plazo y más cara a largo plazo. La segunda exige algo que muchas instituciones no están dispuestas a hacer: revisar qué están enseñando y por qué.

Aquí Freire (1978) resulta inevitable. Su crítica a la educación bancaria —ese modelo en el que el docente deposita información y el estudiante la devuelve intacta en el examen— describe con precisión incómoda lo que las IA generativas hacen sin esfuerzo. Pedir un resumen de un capítulo, una definición de un concepto, una comparación de dos autores, un ensayo de cinco párrafos sobre un tema general: todas estas son tareas que una IA resuelve en segundos porque son, esencialmente, ejercicios de recuperación y reorganización de información. Que un modelo de lenguaje las complete con solvencia no es un escándalo tecnológico. Es un diagnóstico pedagógico.

La revisión sistemática de Cevallos López et al. (2025), sobre 149 artículos, concluye que el consenso emergente en la literatura favorece esquemas de uso supervisado por sobre la prohibición. Farfán Pimentel (2024) documenta además que, al menos en el contexto latinoamericano estudiado, la adopción de IA entre estudiantes universitarios ya es masiva, lo cual convierte la discusión sobre prohibirla en un debate fundamentalmente extemporáneo.

Lo que la prohibición revela sobre la institución

Las medidas anti-IA tienen una utilidad que rara vez se nombra: son visibles. Una declaración jurada se puede mostrar al consejo directivo. Un detector aparece en un informe de gestión. Un examen manuscrito se fotografía bien para la prensa institucional. Rediseñar una materia desde sus objetivos de aprendizaje, en cambio, lleva meses, exige formación docente, incomoda a colegas y no produce comunicados.

La asimetría es la asimetría entre administrar la apariencia de un problema y resolver el problema. Las dos cosas no son lo mismo.

Hay además una dimensión de control. Cuando una institución decide que la respuesta a una nueva tecnología es prohibirla, vigilarla y sancionar su uso, está comunicando algo sobre la relación que cree tener con sus estudiantes. La desconfianza, instalada como política, tiende a producir aquello que dice combatir. Es difícil pedirle integridad académica a quien se trata, por defecto, como sospechoso.

Lo que algunos están haciendo distinto

No todas las instituciones eligieron la trinchera. El Tecnológico de Monterrey, por ejemplo, reportó haber rediseñado una proporción significativa de sus programas para integrar IA en lugar de prohibirla. La UNESCO ha publicado lineamientos específicos para la apropiación institucional de IA en universidades latinoamericanas, partiendo del supuesto de que la herramienta ya está dentro del aula y la pregunta relevante es qué hacer con ella.

Es prematuro afirmar que este enfoque produzca mejores resultados de aprendizaje. La evidencia comparativa todavía no existe con la solidez necesaria [VERIFICAR]. Pero al menos parte de un diagnóstico correcto: la IA no es un visitante ocasional al que se le puede negar la entrada.

El problema no es la herramienta

Las políticas que prohíben la IA en educación fracasan por una razón estructural. Confunden el síntoma con la enfermedad. Si una consigna puede ser resuelta por un modelo de lenguaje sin que el estudiante aprenda nada en el proceso, el problema no es que el estudiante use el modelo. El problema es la consigna.

Los detectores producen falsos positivos. Los juramentos no se cumplen. Los exámenes manuscritos miden caligrafía y resistencia del antebrazo. Los bloqueos de WiFi duran lo que tarda un teléfono en activar datos móviles. Y mientras tanto, la pregunta seria —qué significa aprender, qué significa evaluar, qué tipo de tarea sigue teniendo sentido cuando una máquina puede imitar su producto— sigue sin discutirse en la mayoría de los claustros.

Las universidades llevan novecientos años adaptándose a tecnologías que prometieron destruirlas. Sobrevivirán también a esta. La cuestión es si lo harán reformando lo que enseñan o vigilando cómo escriben sus estudiantes. Las dos cosas requieren esfuerzo. Solo una de ellas sirve para algo.

Referencias

Cevallos López, G. E., Ubillús Reyes, J. y Chocobar Reyes, E. (2025). Argumentos a favor de permitir o prohibir el uso de la inteligencia artificial generativa por estudiantes. Una revisión sistemática. European Public & Social Innovation Review, 11, 1–30. https://doi.org/10.31637/epsir-2026-2155

Dawson, P. (2020). Defending assessment security in a digital world: Preventing e-cheating and supporting academic integrity in higher education. Routledge. https://doi.org/10.4324/9780429324178

Farfán Pimentel, J. F. (2024). Uso de la inteligencia artificial en estudiantes universitarios. Ciencia Latina Revista Científica Multidisciplinar. https://doi.org/10.37811/cl_rcm.v7i6.9012

Freire, P. (1978). Pedagogía del oprimido. Siglo XXI Editores. (Trabajo original publicado en 1968).

Shiba, M. (2025). AI in higher education: IRIS and Turnitin challenges and opportunities. ICERI Proceedings. https://doi.org/10.34190/icer.2.1.4080

Siemens, G. (2013). Learning analytics: The emergence of a discipline. American Behavioral Scientist, 57(10), 1380–1400. https://doi.org/10.1177/0002764213498851

The Guardian. (2024, mayo). AI false positive at UNSW: Student cleared after Turnitin accusation. https://www.theguardian.com/australia-news/2024/may/ai-false-positive-unsw

University of Chicago Provost. (s.f.). AI use policy. https://provost.uchicago.edu/ai-use

Deja un comentario