La destrucción de la educación universitaria por obra de la IA. Dossier

Alice Speri /Paul Sagar
Marzo 22 de 2026
«Ojalá pudiera tirar el ChatGPT por un precipicio»: los profesores se apresuran a salvar el pensamiento crítico en la era de la IA
Alice Speri
Lea Pao, profesora de Literatura en la Universidad de Stanford, ha ido probando diferentes formas de conseguir que sus alumnos aprendan sin conexión digital. Les hace memorizar poemas, participar en recitales y contemplar obras de arte en el mundo real.
Se trata de un esfuerzo por que vuelvan conectar con la experiencia corporal del aprendizaje, explica, y evitar que recurran a la inteligencia artificial para que haga el trabajo por ellos. «No hay nada que esté a prueba de IA», afirma Pao. «En lugar de andar vigilando, espero que el conjunto de sus experiencias en esta clase les demuestre que hay una salida».
No siempre funciona. No hace mucho, les pidió a los alumnos que visitaran un museo local, observasen un cuadro durante diez minutos y escribieran luego unos párrafos describiendo su experiencia. Se trataba de un trabajo deliberadamente personal, pero un alumno respondió con una reflexión sofisticada pero insulsa: «demasiado perfecta, que no decía nada», comenta Pao. Más tarde se enteró de que el alumno había intentado visitar el museo un lunes, cuando estaba cerrado, y había recurrido luego a la IA.
Dado que la inteligencia artificial ha revolucionado la forma en que los estudiantes leen, aprenden y escriben, profesoras como Pao se han visto obligados a valerse por sí mismas para descubrir cómo impartir su enseñanza en un panorama transformado.
Muchos miembros del cuerpo docente de las ciencias exactas y sociales han destacado el «aumento de productividad» que puede ofrecer la IA, así como el potencial de investigación que se abre gracias a su capacidad para procesar y analizar enormes cantidades de datos. Los defensores más entusiastas de la IA han alardeado de que la tecnología podría ayudar a curar el cáncer y «acelerar» la acción sobre el clima.
Pero en los campos más explícitamente asociados con la producción de pensamiento crítico —lo que se conoce colectivamente como «humanidades»—, la mayoría de los especialistas académicos ven la IA como una amenaza de un carácter único, que va mucho más allá de copiar en los deberes y pone en duda el porvenir de la propia educación superior en un futuro dominado por las máquinas que se aproxima rápidamente.
Los títulos universitarios estadounidenses suelen costar hasta cientos de miles de dólares y suponen décadas de endeudamiento, y en los últimos años se ha producido una caída en picado de la confianza del público en la educación superior de los EE. UU. Ante la posibilidad de que la inteligencia artificial substituya cada vez más al pensamiento independiente, una pregunta ya de por sí apremiante cobra aún más urgencia: ¿para qué sirve exactamente la educación universitaria?
The Guardian ha hablado con más de una docena de profesores —casi todos ellos de humanidades o campos afines— sobre cómo se están adaptando en una época de vertiginosos avances tecnológicos con pocos criterios y escasa orientación.
En general, han expresado su opinión de que la dependencia de la inteligencia artificial es fundamentalmente contraria al desarrollo de la inteligencia humana que tienen el deber de guiar. Describen cómo han intentado desesperadamente evitar que los estudiantes recurrieran a la IA como
sustituto del pensamiento, en un momento en que la tecnología amenaza con trastocar no solo su educación, sino todo lo demás, desde el mercado de valores hasta las relaciones sociales y la guerra.
La mayoría de los profesores han descrito en términos desesperados la experiencia de lidiar con la tecnología. «Nos está volviendo locos a muchos de nosotros», afirma uno. «La IA generativa es la pesadilla de mi vida», escribe otro en un correo electrónico. «Ojalá pudiera tirar el ChatGPT (y a Claude, Microsoft Copilot, etc.) por un precipicio».
«Ahora hablo de la IA con mis alumnos no desde el punto de vista del plagio o la honestidad académica, sino en términos francamente existenciales», dijo Dora Zhang, profesora de literatura en la Universidad de California, Berkeley. «¿Qué nos está haciendo como especie?»
Una educación «sin alma»
Las críticas a la IA —o «catastrofismo», tal como lo ven los defensores de la tecnología— han ido en aumento en todos los sectores. Pero en lo que respecta a su impacto en los estudiantes, los primeros estudios apuntan a efectos potencialmente catastróficos en las capacidades cognitivas y las habilidades de pensamiento crítico.
Michael Clune, profesor de literatura y novelista, afirmó que, ya en la actualidad, muchos estudiantes han acabado siendo «incapaces de leer y analizar, de sintetizar datos y de desarrollar todo tipo de habilidades». En un ensayo reciente, advertía de que las universidades que se apresuran a adoptar esta tecnología se están preparando para «autolobotomizarse».
La Universidad Estatal de Ohio, en la que imparte clases, ha comenzado a exigir a todos los estudiantes de primer año que cursen una asignatura sobre IA generativa y se ha autoproclamado la primera universidad «con dominio de la IA», comprometiéndose a integrar la IA «en todas las especialidades».
«Nadie sabe qué significa eso», dice Clune acerca del plan. «En mi caso, como profesor de literatura, estas herramientas parecen, de hecho, ir en contra de los objetivos educativos que tengo para mis alumnos».Ese es el quid de la cuestión que temen muchos profesores de humanidades: que una tecnología que bien podría ser una herramienta de vanguardia en otros campos pueda suponer el fin de la suya.
Alex Karp, cofundador y director ejecutivo de Palantir, avivó esos temores cuando afirmó en una entrevista reciente que la IA «destruiría los puestos de trabajo de las humanidades». Por otro lado, Daniela Amodei, presidenta y cofundadora de Anthropic —que se licenció en Literatura— afirma lo contrario: que «estudiar humanidades va a ser más importante que nunca».
Varias empresas tecnológicas y financieras han declarado recientemente que buscan contratar a titulados en humanidades por su creatividad y sus habilidades de pensamiento crítico. De hecho, los datos de matriculación de algunas universidades sugieren que las humanidades, que llevan largo tiempo en crisis, podrían haber comenzado a resurgir en la era de la IA, con primeros indicios que apuntan a un cambio de tendencia en el declive de décadas de los estudios de inglés a favor de los de STEM [Ciencia, Tecnología, Ingeniería y Matemáticas].
Hay quien advierte de que las humanidades sobrevivirán, pero como ámbito reservado a unos pocos. Cuando predijo el fin de las humanidades, Karp aseguró que habría «puestos de trabajo más que suficientes» para quienes contaran con formación profesional. De hecho, varios profesores expresaron su preocupación por que la IA agrave la creciente brecha en la educación superior norteamericana y que un pequeño número de estudiantes de élite tenga acceso a una educación en humanidades más tradicional y en gran medida libre de tecnología, mientras que el resto reciba una «forma degradada y sin alma de formación profesional impartida por instructores de IA», afirmó Zhang.
«Estoy convencido de que empezaremos a ver una especie de bifurcación en la educación», afirmó Matt Seybold, profesor del Elmira College de Nueva York, quien ha escrito críticamente acerca del «tecnofeudalismo».
Muchos profesores se refirieron a mantener la tecnología fuera del aula como una batalla ya perdida. Hasta un 92 % de los estudiantes ha declarado recurrir a la tecnología en sus tareas escolares, según muestran recientes encuestas, y las cifras están aumentando rápidamente, aun cuando un número cada vez mayor exprese su preocupación por la precisión de la tecnología y la integridad de su uso. La dependencia de la IA entre el profesorado también va en aumento, y los observadores señalan la posibilidad distópica de que la experiencia universitaria pronto se reduzca a sistemas de IA que califiquen los deberes generados por IA: «una conversación entre dos robots».
Algunas universidades han adoptado programas de detección de IA para localizar trabajos generados artificialmente; otras prohíben al profesorado acusar directamente a los estudiantes de haber utilizado IA, ya que a menudo pueden equivocarse.
Los profesores afirmaron que recurrían a interrogatorios orales, cuadernos escritos a mano y a la participación en clase para su evaluación. Algunos exigen a los estudiantes que presenten declaraciones de transparencia en las que describan su proceso de trabajo. Según se informa, otros han introducido palabras aleatorias como «brócoli» y «Dua Lipa» en los trabajos con el fin de confundir a los modelos de aprendizaje, dejando en evidencia a los estudiantes que ni siquiera leyeron las instrucciones antes de pegarlas en la IA.
Muchos profesores han expresado su frustración por tener que revisar los trabajos generados artificialmente por los estudiantes. «Supone horas de trabajo adicional», recuerda Danica Savonick, profesora de inglés en la Universidad Estatal de Nueva York en Cortland. «Y me hace sentirme como si fuera policía».
Algunos permiten a los estudiantes utilizar la IA para la investigación, hasta cierto punto. Karl Steel, profesor de inglés en el Brooklyn College, afirmó que la IA ha contribuido a que las presentaciones de los estudiantes sean más completas e interesantes, pero que, si bien pueden utilizarla para prepararse, les pide que hablen basándose en unas notas mínimas y que se coloquen frente a una fotografía del texto que han anotado a mano. Además, solo les asigna trabajos escritos sobre los textos después de que la clase los haya debatido. «Supongo que podrían usar sus teléfonos para grabar la conversación, introducir la transcripción en un chatbot y elaborar un trabajo de esa manera», dijo. «Pero creo que eso supone más trabajo del que la mayoría de los estudiantes estarían dispuestos a asumir».
Librados a su suerte
Las administraciones de muchas universidades están adoptando la IA para la enseñanza, la investigación y la evaluación. En algunos casos, la IA ha influido en las decisiones sobre qué programas recortar en épocas de austeridad en el sector educativo.
Más de una docena de universidades se han asociado con OpenAI en una iniciativa de 50 millones de dólares, la cual, según la empresa, «acelerará el progreso de la investigación y catalizará una nueva generación de instituciones equipadas para aprovechar el poder transformador de la IA». La Universidad Estatal de California se ha unido a varias de las empresas tecnológicas más grandes del mundo para «crear un sistema de educación superior impulsado por la IA», tal y como lo ha expresado la universidad. Varias universidades han introducido titulaciones y másteres en IA.
Los planes son ambiciosos, pero ofrecen poca orientación sobre qué deben hacer los profesores con los estudiantes que no pueden leer más de un par de párrafos seguidos o que entregan trabajos generados en segundos por una máquina. Abandonados en gran medida a su suerte, algunos están
tratando de establecer límites más claros en torno al uso de la IA y de organizar un esfuerzo más coordinado contra su creciente dominio.
El año pasado, la Asociación Americana de Profesores Universitarios, que representa a 55.000 miembros del cuerpo docente en todo el país, publicó un informe en el que advertía de que las universidades estaban adoptando la tecnología «sin espíritu crítico» y con poca transparencia. Algunos sindicatos universitarios han comenzado a incorporar protecciones contra la IA en sus contratos para establecer mecanismos de supervisión y dar mayor voz al profesorado, así como para proteger su propiedad intelectual.
Pero gran parte de la organización contra la IA sigue siendo informal y se transmite boca a boca, con iniciativas lideradas por el profesorado como el sitio digital Against AI [Contra la IA] que ofrece recursos a quienes intentan proteger a los estudiantes de los estragos intelectuales que supone externalizar elementos de su educación a una máquina.
«Los materiales aquí incluidos pretenden ser un consuelo solidario para los educadores que podrían encontrarse reinventando la rueda en solitario mientras sus administradores, patronos y jefes promocionan sin descanso la IA», reza el sitio digital, que ofrece una lista de ideas para tareas con el fin de mitigar el uso de la IA: desde exámenes orales hasta requisitos para que los estudiantes presenten pruebas fotográficas de sus apuntes, pasando por diarios analógicos.
Muchos de los profesores entrevistados por The Guardian afirmaron que prohíben por completo el uso de la IA en sus aulas, aunque reconocen que su postura inflexible depende de la disciplina concreta.
Megan McNamara, que imparte clases de Sociología en la Universidad de California, Santa Cruz, y ha elaborado una guía para que el profesorado de todas las disciplinas pueda abordar la conducta académica indebida relacionada con la IA, señaló que las diferencias «culturales» entre las humanidades y las disciplinas STEM, o entre las ciencias sociales cualitativas y las cuantitativas, tienden a condicionar la respuesta del profesorado ante el uso de la IA por parte de los estudiantes.
«Creo que eso es simplemente una cuestión de la relación individual de cada uno con la escritura, la lectura y el análisis crítico», escribió en un correo electrónico.
Varios profesores mencionaron que aprovechan este tema como una oportunidad para que los alumnos reflexionen de forma crítica sobre la tecnología.
Cuando sospecha que alguien ha utilizado la IA, McNamara habla con esa persona al respecto, considerando el incidente como una «oportunidad para el crecimiento, la justicia restaurativa y una mayor autenticidad en las relaciones entre alumnos y profesores», afirmó.
Eric Hayot, profesor de Literatura Comparada en la Universidad Estatal de Pensilvania, afirma que intenta convencer a sus alumnos de que las empresas tecnológicas están tratando de que se sientan «desamparados» sin sus productos.
«Estas empresas están regalando estas herramientas tecnológicas, en parte porque esperan crear adicción a toda una generación de estudiantes», ha declarado Hayot a The Guardian. «Esto forma parte de todas y cada una de las clases que imparto ahora: hablo con los estudiantes sobre por qué no utilizo la IA y por qué ellos tampoco deberían utilizarla».
«Podemos decidir que queremos ser humanos»
Varios profesores señalaron que también han empezado a advertir un creciente malestar entre los estudiantes hacia la tecnología, y hacia el dominio que esta ejerce en sus vidas en general.
Clune, el profesor de la Universidad Estatal de Ohio, dijo que los estudiantes sienten cada vez más curiosidad por su teléfono de concha, que empezó a usar tras darse cuenta de que su smartphone estaba «destruyendo» su capacidad de atención.
«Creo que la actual generación de estudiantes de la Generación Z se está dando cuenta de que son los conejillos de indias de este gigantesco experimento social», afirma Zhang, el profesor de Berkeley.
«Existe una sensación cada vez más generalizada entre los estudiantes de que les están robando algo», afirma haciéndose eco de ello Seybold, profesor del Elmira College.
Seybold señaló la creciente desilusión de los estudiantes con la tecnología en general. Aquellos que rechazan la IA, añadió, suelen estar motivados por preocupaciones medioambientales y por la desconfianza hacia las empresas, a las que consideran en parte responsables del deterioro de las democracias y de un mundo más violento.
En Míchigan, por ejemplo, esto ha impulsado el activismo. La Universidad de Míchigan anunció recientemente sus planes de aportar 850 millones de dólares a un centro de datos destinado a proporcionar infraestructura de AI en colaboración con el Laboratorio Nacional de Los Álamos, en un momento en el que está recortando fondos para la investigación en artes y humanidades, y tras las protestas contra la guerra en el campus. Un portavoz de la Universidad afirmó que las instalaciones previstas serían más pequeñas y consumirían menos energía que un «centro de datos típico».
A medida que crece la oposición, también lo hace el énfasis en aquellas cualidades intrínsecamente humanas que diferencian a las personas de las máquinas: precisamente las cualidades que busca fomentar la educación humanística.
«Existe una especie de derrotismo, esta idea de que la tecnología es imparable y que la resistencia es inútil, que todo quedará aplastado a su paso», comenta Clune, el profesor de la Universidad Estatal de Ohio. «Eso tiene que cambiar… Podemos decidir que queremos ser humanos».
Esa idea también ha sido clave en el enfoque de Pao respecto a la enseñanza en la era de la IA.
«Plantas semillas y esperas», afirma Pao, refiriéndose a unos esfuerzos que a veces parecen como luchar contra molinos de viento. «Esperas que, a largo plazo, les estés ayudando a convertirse en seres humanos felices, capaces de dar un paseo, de experimentar cosas y de describirlas por sí mismos».
The Guardian, 10 de marzo de 2026
Cómo va a acabar la IA con las universidades
Paul Sagar
Si hacemos caso a los profetas de la inteligencia artificial, empieza a perfilarse un futuro maravilloso: una sociedad post-escasez en la que nadie tiene que trabajar, se curan todas las enfermedades y la vida humana cambia hasta quedar irreconocible. Bueno, a menos que las máquinas estén «desalineadas» y sencillamente nos aniquilen. En el otro extremo, los escépticos nos cuentan que la IA no es más que otra tecnología normal: una tecnología que tendrá varios efectos importantes, sin duda, pero que, en el gran esquema de las cosas, va a tener menos importancia que las tuberías de agua o los antibióticos. Ah, y que también es una gigantesca burbuja financiera.
No soy ni economista ni informático, y no poseo una bola de cristal, así que, como la mayoría de la gente, me cuesta saber qué pensar de todo esto (aunque mis sospechas se inclinan hacia lo segundo). Pero sí que enseño Filosofía Política en una universidad británica, así que he tenido que lidiar con el impacto de los Modelos Masivos de Lenguaje (LLM – Large Language Models) en un pequeño ámbito: la educación superior. Y aquí, mi conclusión es sencilla. La amenaza que plantean es existencial.
Sin embargo, las razones que explican este fenómeno no son sencillas. Como suele ocurrir, la realidad es compleja. Aun así, podemos avanzar dejando de lado la cuestión de lo que supone la IA para la investigación universitaria —que variará enormemente de un campo a otro— y centrándonos, en
cambio, en la docencia. Concretamente, en los estudiantes que utilizan LLM para realizar sus trabajos de clase. Pregúntese a cualquier profesor universitario hoy en día y le dirá lo mismo: el impacto ha sido enorme.
El cambio más evidente consiste en que, mientras que antes el software antiplagio era muy eficaz para detectar a los estudiantes que hacían pasar trabajos copiados como propios, los LLM eluden esto por completo. Programas como ChatGPT generan textos totalmente originales a partir de las indicaciones que se les proporcionan, lo que hace que el software antiplagio sea inútil. (Es hacer trampa, Jim, pero no como la conocíamos).
Del mismo modo, el software que afirma ser capaz de detectar texto generado por IA no sirve de nada, ya que arroja resultados falsos en ambos sentidos. Los estudiantes lo saben. Sólo puedo hablar directamente del efecto en las asignaturas basadas en ensayos, pero no puedo imaginar que la situación sea mejor en las ciencias. A su vez, los académicos somos dolorosamente conscientes de que al menos algunos estudiantes están utilizando la tecnología y, por lo tanto, a veces estamos calificando trabajos escupidos por máquinas, pero presentados fraudulentamente como humanos.
¿No deberíamos nosotros, los expertos titulados, ser capaces de distinguir entre un trabajo de grado y una chapuza de máster en Derecho? Bueno, más o menos… pero no es fácil. Hace poco me mostraba muy seguro de mi capacidad para detectar trabajos generados por IA en mi campo. En lo que respecta a la filosofía política, hay un cierto tono de confianza arrogante —un dominio panorámico de la disciplina en su conjunto— que solo se consigue tras años de lectura, escritura y reflexión. Ningún estudiante de grado ha estudiado la materia durante el tiempo suficiente como para poder escribir con ese nivel de control y autoridad. Por eso, cuando encuentro este tono en el trabajo de un estudiante, estoy bastante seguro de que tengo ante mí a un tramposo de LLM.
Sin embargo, tal como me señaló un compañero, esto nos lleva directamente a la «falacia del peluquín». Imaginemos que afirmo con total seguridad que los hombres que llevan peluquín siempre tienen mal aspecto y que sería mejor que se quedaran calvos. Al fin y al cabo, ¡todos sabemos que llevan peluca! El problema es que estoy dando por sentado que siempre puedo detectar un peluquín. Los peluquines bien hechos son precisamente los que no detecto. El hecho de que pueda detectar algunas pelucas (las malas) no significa que pueda detectarlas todas; de hecho, las buenas son precisamente las que se me escapan, lo que a su vez alimenta mi confianza errónea de que puedo detectarlas todas. Lo mismo ocurre con el uso de los LLM por parte de los estudiantes. Los que saben usar eficazmente la tecnología para copiar son precisamente los que se salen con la suya.
E incluso cuando detecto el equivalente a un peluquín en un trabajo, normalmente no hay nada que pueda hacer al respecto. Mi corazonada de que un trabajo parece escrito por IA es, como es lógico, una prueba insuficiente para suspender la presentación de un trabajo. A menos que el estudiante sea tan tonto como para haber incluido una bibliografía alucinada de referencias de IA inventadas (y sí, esto ocurre), siempre tiene una negación plausible. Es su palabra contra mi corazonada. Los infractores sin escrúpulos se salen siempre con la suya. Al fin y al cabo, para un estudiante dispuesto a copiar en los trabajos que entrega, mentir un poco más no supone un gran salto.
Sin embargo, no se trata solo del problema del plagio descarado. En cierto modo, la amenaza más insidiosa que plantean los LLM para el aprendizaje de los estudiantes universitarios es la promesa de atajos instantáneos. ¿Por qué esforzarse por entender ese artículo tan difícil, por qué leer ese libro tan complicado, por qué obligarse a resolver los ejercicios, cuando Internet puede resumírtelo todo?
La respuesta es: porque solo a través de la lucha, el esfuerzo y el forcejeo con las ideas por uno mismo, a lo largo de los años, se puede realmente adiestrar y desarrollar la mente. De hecho, esta es la razón por la que las carreras universitarias de humanidades conceden tanta importancia a la escritura. Escribir es pensar. Mientras no hayas intentado plasmar tus ideas en el papel, no sabrás realmente nunca si las entiendes y las tienes bajo control.
Por desgracia, la verdad de estos hechos solo se hace evidente con la experiencia, que es precisamente lo que les falta a los estudiantes universitarios. Quizá también nos sorprenda saber que las personas de entre dieciocho y veintitantos años no suelen ser buenas a la hora de postponer un placer inmediato a cambio de una recompensa lejana. Tradicionalmente, una de las cosas en las que las universidades destacaban se cifraba en enseñar a los jóvenes esta habilidad obligándoles a adquirirla (se aprende haciendo.) Los LLM, sin embargo, suponen una amenaza directa a todo este proceso. Son una droga de efecto rápido que se les pone delante de las narices a los estudiantes y cuyos verdaderos efectos parecen ser el retraso del desarrollo intelectual.
¡Qué no daría yo por demoler los cárteles de Silicon Valley que imponen este narcótico digital corrosivo a mis estudiantes! ¿«Muévete rápido y rompe cosas»? Cómo me gustaría poder devolverles el favor.
A estas alturas, está más que claro que la única respuesta pedagógicamente sólida ante los LLM en las universidades consiste, como mínimo, un retorno parcial a los métodos tradicionales. Hay que reducir la dependencia de los cursos digitales; se requiere un retorno significativo al papel y al lápiz. Esta es la única forma de garantizar que los estudiantes no copien en (todos) sus trabajos. Solo exigiéndoles que demuestren sus conocimientos directamente, en persona, podremos incentivarlos a que vayan y estudien adecuadamente en su tiempo libre. Ya lo sabe todo el mundo en la educación.
Pero no todo el mundo lo va a reconocer. Los administradores universitarios, sobre todo, no quieren admitirlo. Esto no se debe sólo a que ya hayan invertido enormes cantidades de dinero en sistemas digitales en medio de la carrera desenfrenada por «adoptar» la IA y firmar contratos cuantiosos con empresas como Microsoft Copilot para enseñar a los estudiantes a utilizar herramientas de IA (como si las personas de mediana edad como yo fuéramos las que tuviésemos que enseñar a los jóvenes a utilizar la tecnología.) Más allá de esto, también es el resultado de la enorme escala de las operaciones universitarias modernas.
Aunque algunas instituciones ya han dado pasos para integrar los exámenes en papel y lápiz, lugares como el King’s College de Londres, donde trabajo, están intentando huir de la realidad. Esto se debe, en parte, a que tenemos más estudiantes matriculados de los que cabrían en las aulas de examen durante un periodo de exámenes limitado. Supongo que, por eso, en una reunión con el «responsable de IA» de nuestra universidad el año pasado, se le comunicó a mi departamento que volver a basar la mayoría de las evaluaciones en exámenes no era, sinceramente, una opción.
En su lugar, a mis colegas y a mí se nos dijo que la política de IA de la universidad consiste en que nosotros, como docentes, debemos esforzarnos por ser tan motivadores que nuestros estudiantes no quieran utilizar los LLM con fines maliciosos. En este escenario, los utilizarán solamente para «mejorar su aprendizaje» (sea lo que sea que signifique esto).
Ahora bien, no estoy completamente en contra de esta línea de pensamiento. De hecho, intento hacerlo de todos modos. Pero, ¿podemos dejar ya de lado esa ingenuidad deliberada? Los estudiantes de hoy llegan a la universidad habiendo crecido en una cultura y un sistema educativo que les inculca el mantra de que la razón principal por la que se va a la universidad consiste en obtener una calificación en un trozo de papel (preferiblemente un 2:1 o superior), cuya función principal es servir de billete de entrada al mercado laboral.
Algunos de mis alumnos ven su título como algo más que eso: una oportunidad para aprender, explorar ideas y ampliar sus horizontes intelectuales a través de una educación estructurada en la que el único camino hacia una recompensa auténtica es el trabajo duro. Pero seamos realistas: son la excepción, la minoría. La mayoría no es así. ¿Y quién puede realmente culparlos? Están contrayendo una deuda de decenas de miles de libras con la seguridad de que se trata de una transacción financiera necesaria para garantizar su potencial de ingresos futuros. Ellos son los clientes, nosotros los minoristas. Las universidades del Reino Unido han estado fundamentalmente amañadas de esta
manera durante los últimos 20 años. ¿Y ahora me dices que mi trabajo consiste en motivar un amor por el aprendizaje tan profundo que permita superar todos esos factores? ¿Que de alguna manera mi carisma en el aula puede competir con los narcóticos de Silicon Valley? Por favor.
Sin embargo, es precisamente aquí donde empiezan a encajar las piezas del rompecabezas y la amenaza se vuelve existencial.
Hoy en día se espera que las universidades del Reino Unido funcionen como empresas. Si no conseguimos atraer a un número suficiente de estudiantes y recaudar las tasas que estos pagan, no podemos esperar seguir abiertas. Las tasas de matrícula no han aumentado en la práctica desde que las subió el gobierno de coalición [entre conservadores y liberal-demócratas], lo que significa que su valor ha caído en términos reales en torno a un 30 %. Hasta hace poco, la principal estrategia para hacer frente a esto consistía en un aumento masivo de los programas de máster, con un enfoque muy deliberado en atraer a estudiantes internacionales, que pagan tasas mucho más elevadas. Lo que, en la práctica, significaba en gran medida: los chinos.
¿A quién le importa que, como resultado, se haya cometido un fraude desenfrenado? Ahora se conceden habitualmente títulos universitarios en el Reino Unido a estudiantes incapaces de escribir tres frases coherentes en inglés en un correo electrónico, que nunca dicen una palabra en clase y que, evidentemente, copian en los trabajos de curso (muchos recurrían a servicios comerciales de redacción de ensayos digitales, antes incluso de la llegada de los modelos de lenguaje grande). Los profesores universitarios como yo hemos intentado armar un escándalo, y los administradores nos dicen rápidamente que nos callemos y sigamos con nuestra labor de desprestigiar nuestra vocación. Al fin y al cabo, ¿quién creíamos que pagaba nuestros sueldos?
Pero hará unos dos años, el árbol mágico del dinero comenzó a marchitarse. La historia es complicada, pero, en esencia, Pekín empezó a cerrar el grifo, mientras que los disturbios racistas del verano de 2024 disuadieron a los estudiantes internacionales de venir a nuestras encantadoras costas. Las universidades entraron en pánico y ahora están dejando de centrarse en los másteres para aumentar masivamente el número de estudiantes de grado.
El problema es que sólo hay un número limitado de estudiantes de grado en todo el sector. Así que ahora nos encontramos con una canibalización competitiva. El Russell Group, por ejemplo, se encuentra en una lucha sin cuartel en la que algunas universidades (como la mía) aumentan masivamente el número de alumnos de grado, a expensas directas de instituciones más pequeñas y provinciales. Por ahora, mi puesto de trabajo está a salvo, pero no tanto el de mis colegas de la Universidad de York, una institución igualmente venerable, pero que intentó el año pasado despedir al 20 % de su personal. Y, por supuesto, esta competencia sencillamente se está trasladando, poniendo a su vez en peligro a las instituciones menos prestigiosas. Como resultado, muchas universidades británicas se enfrentan al colapso financiero.
Sin embargo, es posible que estas universidades también se encuentren en una carrera hacia el abismo. Toda la competencia se basa en la suposición de que los estudiantes universitarios seguirán queriendo tomarse la molestia de ir a la universidad. Sin embargo, la contratación de titulados está en descenso, y hay indicios de que se trata de una respuesta directa al auge de los LLMs. ¿Por qué contratar a cien becarios titulados cuando puedes contratar a uno solo y pedirle a Claude que haga el resto del trabajo por una fracción del coste y 1.000 veces más rápido? Y del mismo modo, ¿por qué endeudarse en 50.000 libras para obtener un título, si este ya no te garantiza un empleo? Mientras los responsables tecnológicos predicen públicamente el fin del trabajo de oficina en los próximos dos años, se puede perdonar a la próxima generación por optar por quedarse al margen.
Si los LLM acaban con la mano de obra titulada, no serán sólo los trabajos de fin de carrera los que dejen de tener sentido. Será el sector universitario británico en su conjunto —que es lo suficientemente grande como para arrastrar consigo al resto de la economía—. Se está cosechando lo
que se sembró. Y cuando caiga, no sólo el cobertizo, sino toda la granja, podría derrumbarse bajo su peso.
Unherd, 12 de marzo de 2026