# El teatro institucional frente a la inteligencia artificial
En algún despacho de alguna universidad, alguien decidió hace poco que la mejor manera de enfrentar la irrupción de los modelos generativos de lenguaje era hacer que los estudiantes firmaran un juramento. Un juramento de honor. En papel. En 2024.
El catálogo de respuestas institucionales a ChatGPT es, en cierta forma, un documento sociológico de primer orden. Tenemos universidades que bloquearon el acceso a la herramienta desde sus redes Wi-Fi, como si los estudiantes no llevaran en el bolsillo un dispositivo con datos móviles propios. Tenemos departamentos enteros que volvieron al examen presencial con bolígrafo azul y hoja cuadriculada, en una suerte de retroceso litúrgico al siglo XX. Tenemos detectores automáticos contratados a precios considerables que prometen identificar texto generado por máquina con una precisión, digamos, optimista. Y tenemos, por supuesto, las cláusulas en los programas de asignatura que prohíben «todo uso de inteligencia artificial generativa», redactadas a veces —uno sospecha— con ayuda de la misma tecnología que pretenden vetar.
La hipótesis que sostiene este artículo es incómoda pero simple: estas medidas no solo fracasan en su propósito, sino que agravan el problema. Empujan el uso de IA a la clandestinidad, cancelan la oportunidad de educar en su uso crítico y exhiben una desconexión institucional con la realidad cotidiana del alumnado que sería divertida si no fuera tan costosa.
## El problema técnico: detectores que no detectan
Conviene empezar por lo más fácil de demostrar. Los detectores de texto generado por IA no funcionan con la fiabilidad que sus vendedores sugieren. GPTZero, la herramienta más mediática del género, fue desarrollada por un estudiante de Princeton en enero de 2023 y desde entonces se ha convertido en referencia para miles de docentes. Según reportó NPR en su momento, su funcionamiento se basa en métricas como la «perplejidad» y la «ráfaga» del texto, indicadores estadísticos que en la práctica producen [VERIFICAR: tasa exacta de falsos positivos] una cantidad incómoda de falsos positivos.
Más grave aún: existe evidencia consistente de que estos detectores penalizan sistemáticamente a hablantes no nativos del inglés, cuyos patrones sintácticos más regulares y vocabulario más restringido son leídos por el algoritmo como sospechosamente artificiales. Es decir, la herramienta diseñada para garantizar la integridad académica discrimina con notable eficacia a una población estudiantil concreta. Uno podría preguntarse cuántos comités de ética universitarios han revisado esto antes de adoptar la tecnología. La respuesta probablemente decepcione.
Rudolph, Tan y Tan (2023) ya advertían en los primeros meses tras el lanzamiento de ChatGPT que la carrera armamentística entre generadores y detectores era una batalla perdida de antemano: cada mejora en los modelos lingüísticos vuelve obsoleta la generación previa de detectores. Cotton, Cotton y Shipway (2023), por su parte, documentaron las limitaciones de las soluciones puramente punitivas frente a la integridad académica en la era de los LLM.
## El problema pedagógico: la clandestinización del aprendizaje
Aquí radica, a mi juicio, el daño verdadero. Cuando una institución prohíbe terminantemente el uso de IA generativa sin matices ni formación previa, no consigue que los estudiantes dejen de usarla. Consigue que la usen mal, a escondidas, sin supervisión y sin desarrollar el criterio necesario para evaluar sus resultados.
García-Peñalvo (2023) describió esta primera reacción institucional con la disyuntiva exacta: ¿disrupción o pánico? La mayoría de las universidades, al menos durante 2023, optaron por lo segundo. Y el pánico tiene un coste pedagógico medible. Si un estudiante usa ChatGPT para redactar un ensayo y nunca aprende a verificar sus afirmaciones, a detectar sus alucinaciones, a contrastar sus fuentes inventadas con bibliografía real, ese estudiante no está aprendiendo menos por culpa de la IA: está aprendiendo menos por culpa de una política que le impidió aprender a usarla.
La paradoja es notable. Para detectar cuándo la IA alucina hace falta el conocimiento experto que la propia IA puede ayudar a evitar desarrollar. Esta tensión, real y seria, no se resuelve prohibiendo. Se resuelve diseñando situaciones de aprendizaje donde el estudiante tenga que confrontar la salida del modelo con fuentes verificables, donde el proceso —no solo el producto final— sea objeto de evaluación. Kasneci et al. (2023) insistieron precisamente en esto: las oportunidades de los modelos de lenguaje para la educación dependen de cómo se integren, no de si se permiten o no.
¿De verdad alguien cree que un estudiante de 19 años, con un trabajo final pendiente a las tres de la madrugada, va a renunciar voluntariamente a la herramienta más potente jamás disponible para procesar texto porque su profesora lo prohibió en la página tres del programa? La pregunta se responde sola.
## Esto ya pasó antes, y varias veces
Una mirada incluso superficial a la historia reciente de la tecnología educativa muestra que el ciclo pánico → prohibición → asimilación es una constante. Las calculadoras electrónicas, en los años setenta, generaron un debate prácticamente idéntico: iban a destruir la capacidad de cálculo mental, a producir generaciones incapaces de hacer una división larga, a convertir las matemáticas en un ejercicio mecánico. Hoy se incluyen en los kits obligatorios de material escolar.
Wikipedia, entre 2005 y 2010 aproximadamente, fue objeto de prohibiciones explícitas en universidades de medio mundo. «No es una fuente fiable», se decía. Hoy es, en la práctica, el punto de partida implícito de buena parte de la investigación inicial de cualquier estudiante —y de bastantes docentes— sin que nadie firme juramentos al respecto. Google, antes incluso, fue acusado de erosionar la memoria, la capacidad de búsqueda en archivos físicos, la paciencia investigadora.
En todos los casos, el patrón institucional fue el mismo: alarma, prohibición, lenta acomodación, integración pedagógica y, finalmente, olvido del pánico inicial. Cevallos López et al. (2025), en su revisión sistemática de 149 artículos sobre el debate de permitir o prohibir la IA generativa, muestran que la literatura académica ya está reproduciendo este ciclo con notable fidelidad. Lo único verdaderamente nuevo, podría decirse, es la velocidad: lo que con Wikipedia tomó un lustro, con ChatGPT está ocurriendo en meses.
## Qué podría hacerse, si hubiera voluntad
La alternativa a la prohibición no es la permisividad absoluta. Eso sería una falsa dicotomía cómoda para quienes prefieren no pensar el problema. Chan (2023) propuso un marco comprensivo de políticas de IA para la enseñanza universitaria que contempla tres dimensiones: pedagógica, de gobernanza y operativa. La idea central es que cada disciplina, cada asignatura, cada tipo de tarea requiere una política diferenciada, explícita y enseñada.
Tres cuestiones concretas merecen atención:
**Alfabetización en IA**. Los estudiantes necesitan entender qué es un modelo de lenguaje, por qué alucina, por qué reproduce sesgos, por qué a veces inventa referencias bibliográficas con nombres plausibles y DOIs que no existen. Esto no se enseña prohibiendo. Se enseña usando la herramienta en clase, frente al docente, contrastando sus salidas con fuentes reales.
**Rediseño de la evaluación**. Si una tarea puede ser resuelta íntegramente por ChatGPT en treinta segundos, quizá el problema no sea ChatGPT, sino la tarea. Las evaluaciones procesuales, las defensas orales, los trabajos que exigen integración de experiencia situada, los portafolios documentados, son menos vulnerables al uso no declarado de IA. También son, casualmente, mejores evaluaciones desde casi cualquier criterio pedagógico.
**Políticas explícitas y diferenciadas**. Cotton et al. (2023) insisten en que la opacidad institucional —el no decir nada y dejar que cada docente improvise— es probablemente la peor política posible. Un estudiante necesita saber, para cada asignatura, qué usos están permitidos, cuáles requieren declaración y cuáles están vetados. Y necesita saberlo desde el primer día, no descubrirlo cuando recibe una acusación de fraude.
## El problema real
El problema, conviene decirlo con claridad, no es la inteligencia artificial. El problema es que la irrupción de estas herramientas ha puesto en evidencia algo que la universidad llevaba décadas evitando mirar: buena parte de lo que se evalúa en educación superior es exactamente el tipo de tarea que una máquina puede hacer. Resúmenes, glosas, comentarios estandarizados, ensayos sobre temas mil veces tratados.
Si un modelo entrenado en texto público puede aprobar tus exámenes, la conclusión razonable no es prohibir el modelo. La conclusión razonable es preguntarse qué estabas evaluando exactamente. Y esa pregunta es bastante más incómoda que comprar una licencia de GPTZero o repartir bolígrafos azules el día del examen final.
Las medidas que describí al principio —los detectores, los juramentos, los bloqueos de red, el regreso forzoso al papel— tienen una virtud común desde el punto de vista institucional: permiten parecer que se está haciendo algo sin tener que repensar nada. Son teatro. Teatro caro, ineficaz y pedagógicamente regresivo, pero teatro al fin. Mientras tanto, los estudiantes siguen usando la herramienta. Solo que ahora, gracias a las políticas vigentes, lo hacen peor.
## Referencias
Cevallos López, G. E., Ubillús Reyes, J., & Chocobar Reyes, E. (2025). Argumentos a favor de permitir o prohibir el uso de la inteligencia artificial generativa por estudiantes. Una revisión sistemática. *European Public & Social Innovation Review*, 11, 1–30. https://doi.org/10.31637/epsir-2026-2155
Chan, C. K. Y. (2023). A comprehensive AI policy education framework for university teaching and learning. *International Journal of Educational Technology in Higher Education*, 20(1). https://doi.org/10.1186/s41239-023-00408-3
Cotton, D. R. E., Cotton, P. A., & Shipway, J. R. (2023). Chatting and cheating: Ensuring academic integrity in the era of ChatGPT. *Innovations in Education and Teaching International*, 61(2), 228–239. https://doi.org/10.1080/14703297.2023.2190148
García-Peñalvo, F. J. (2023). La percepción de la Inteligencia Artificial en contextos educativos tras el lanzamiento de ChatGPT: disrupción o pánico. *Education in the Knowledge Society*, 24. https://doi.org/10.14201/eks.31279
Kasneci, E., Seßler, K., Küchemann, S., et al. (2023). ChatGPT for good? On opportunities and challenges of large language models for education. *Learning and Individual Differences*, 103. https://doi.org/10.1016/j.lindif.2023.102274
Rudolph, J., Tan, S., & Tan, S. (2023). ChatGPT: Bullshit spewer or the end of traditional assessments in higher education? *Journal of Applied Learning & Teaching*, 6(1). https://doi.org/10.37074/jalt.2023.6.1.9