(Fragmento)
Traducción Alejandro Garvie
Los estudiantes usan IA para escribir trabajos, los profesores usan IA para calificarlos, los títulos pierden su valor y las empresas tecnológicas amasan fortunas. Bienvenidos a la muerte de la educación superior.
El pánico llegó primero. Las reuniones de profesores estallaron en pánico: “¿Cómo detectaremos el plagio ahora?” “¿Se acabó el ensayo universitario?” “¿Deberíamos volver a los libros azules y los exámenes supervisados?”. Mis compañeros de la escuela de negocios de repente se comportaron como si el engaño se acabara de inventar.
Luego, casi de la noche a la mañana, la angustia se convirtió en frustración. Los mismos profesores que pronosticaban el desastre académico ahora se renovaban con entusiasmo como “educadores preparados para la IA”. En todo el campus, talleres como “Desarrollo de habilidades y conocimientos de IA en el aula” y “Fundamentos de alfabetización en IA” proliferaron como hongos después de la lluvia. El pánico inicial por el plagio dio paso a una resignada aceptación: “Si no puedes con ellos, únete a ellos”.
Este cambio radical no fue exclusivo de mi campus. El sistema de la Universidad Estatal de California (CSU), el sistema universitario público más grande de Estados Unidos, con 23 campus y casi medio millón de estudiantes, se jugó todo al anunciar una alianza de 17 millones de dólares con OpenAI. La CSU se convertiría en el primer sistema universitario del país “impulsado por IA”, ofreciendo ChatGPT Edu gratuito (una versión con la marca del campus diseñada para instituciones educativas) a todos los estudiantes y empleados. El comunicado de prensa hablaba con entusiasmo de “herramientas de aprendizaje personalizadas y orientadas al futuro” y de preparar a los estudiantes para una “economía impulsada por la IA”.
El momento fue surrealista. La CSU reveló su gran gesto tecnológico justo cuando proponía recortar 375 millones de dólares de su presupuesto. Mientras los administradores inauguraban su iniciativa de IA, también recortaban plazas de profesorado, programas académicos completos y servicios estudiantiles. En la CSU East Bay, se emitieron dos avisos generales de despido en un año, afectando a departamentos como Estudios Generales y Lenguas Modernas.
En la Universidad Estatal de San Francisco, la rectoría notificó formalmente a nuestro sindicato, la Asociación de Profesores de California (CFA), sobre posibles despidos. Este anuncio causó conmoción en el campus, ya que el profesorado intentaba conciliar los recortes presupuestarios con el entusiasmo de la administración por la IA. La ironía era evidente: el mismo mes en que nuestro sindicato recibió amenazas de despido, los promotores de la educación de OpenAI se instalaron en la biblioteca universitaria para reclutar profesores para el evangelio del aprendizaje automatizado.
Las matemáticas son brutales y la yuxtaposición, cruda: millones para OpenAI, mientras que los despidos se destinan a profesores veteranos. La CSU no está invirtiendo en educación, sino que la está externalizando, pagando precios elevados por un chatbot que muchos estudiantes ya usaban gratis.
La educación pública ha estado en venta durante décadas. El teórico cultural Henry Giroux fue uno de los primeros en ver cómo las universidades públicas se estaban transformando en centros de formación profesional para los mercados privados. Los departamentos académicos ahora tienen que justificarse en términos de ingresos, resultados y aprendizaje. La nueva alianza de la CSU con OpenAI es la última vuelta de tuerca.
Otros han trazado la misma tendencia. Sheila Slaughter y Gary Rhoades lo llamaron capitalismo académico: el conocimiento transformado en mercancía y los estudiantes en consumidores. En Unmaking the Public University, Christopher Newfield mostró cómo la privatización empobrece en realidad a las universidades públicas, convirtiéndolas en cascarones de sí mismas financiados con deuda. Benjamin Ginsberg narró el auge del ” campus totalmente administrativo”, donde las capas gerenciales y la plaga administrativa se multiplicaron incluso cuando el profesorado se redujo.
Mientras tanto, en la Universidad Estatal de San Francisco, programas de posgrado completos dedicados a la investigación crítica (Estudios de la Mujer y Género y Antropología) se suspendieron por falta de financiación. Pero tranquilos: ¡todos recibieron una licencia gratuita de ChatGPT Edu!
La ironía no podría ser más cruda: los programas mejor equipados para estudiar las implicaciones sociales y éticas de la IA estan siendo desfinanciados, incluso mientras la universidad promueve el uso de los productos de OpenAI en todo el campus.
Dentro de la institución, el lenguaje corporativo se filtra a través de memorandos administrativos y correos electrónicos condescendientes. Con el pretexto de la “sostenibilidad fiscal” (una forma más amigable de decir “recortes”), los administradores afilan sus escalpelos para reestructurar la universidad de acuerdo con métricas de eficiencia en lugar de con el propósito educativo.
Cuando mis colegas de la escuela de negocios insisten en que ChatGPT es “solo una herramienta más en la caja de herramientas”, me tienta recordarles que Facebook alguna vez fue “solo una forma de conectar con amigos”. Pero hay una diferencia entre herramientas y tecnologías. Las herramientas nos ayudan a realizar tareas; las tecnologías transforman los entornos en los que pensamos, trabajamos y nos relacionamos. Como observa el filósofo Peter Hershock, no solo usamos tecnologías; participamos en ellas. Con las herramientas, conservamos la autonomía: podemos elegir cuándo y cómo usarlas. Con las tecnologías, la elección es más sutil: redefinen las propias condiciones de la elección. Un bolígrafo amplía la comunicación sin redefinirla; las redes sociales transformaron lo que entendemos por privacidad, amistad e incluso verdad.
El teórico político Langdon Winner se preguntó una vez si los artefactos pueden tener influencia política. Sí la tienen, y los sistemas de IA no son la excepción. Codifican suposiciones sobre qué se considera inteligencia y qué trabajo es valioso. Cuanto más dependemos de los algoritmos, más normalizamos sus valores: automatización, predicción, estandarización y dependencia corporativa
En las aulas actuales, el tecnopolio prospera. Las universidades se están reestructurando como centros de cumplimiento de la conveniencia cognitiva. No se enseña a los estudiantes a pensar con mayor profundidad, sino a estimular con mayor eficacia. Estamos exportando la labor misma de enseñar y aprender: el lento trabajo de lidiar con las ideas, la superación de la incomodidad, la duda y la confusión, la lucha por encontrar la propia voz. La pedagogía crítica ha pasado de moda; los trucos para la productividad están de moda.
El escándalo no es de ignorancia, sino de indiferencia. Los administradores universitarios comprenden perfectamente lo que ocurre y, aun así, proceden. Mientras las cifras de matrícula se mantengan y los pagos de matrícula estén al día, ignoran la crisis de aprendizaje, mientras que el profesorado se ve obligado a gestionar la carnicería educativa en sus aulas.
Los estudiantes siempre han encontrado maneras de hacer trampa: garabateando las respuestas en la palma de la mano o contratando escritores fantasmas, pero ChatGPT lo llevó a otro nivel. De repente, tenían acceso a un asistente de escritura que nunca dormía, nunca cobraba y nunca decía que no.
En octubre de 2025, Perplexity AI lanzó un anuncio de Facebook para su nuevo navegador Comet, en el que aparecía un influencer adolescente que presumía de usar la app para hacer trampa en todos los exámenes y tareas, y no era una parodia. La empresa pagó para difundir la deshonestidad académica como argumento de venta. Marc Watkins, escribiendo en su Substack lo calificó como “un nuevo mínimo”, señalando que el propio director ejecutivo de Perplexity parecía ignorar que su equipo de marketing estaba glorificando el fraude.
Si esto suena a sátira, no lo es: la misma semana en que se publicó el anuncio, un miembro del profesorado de nuestra Facultad de Administración envió un correo electrónico a todos los profesores y estudiantes, promocionando con entusiasmo una cuenta gratuita de Perplexity Pro por un año “¡con algunas funciones adicionales interesantes!”. Sí, formas aún más efectivas de hacer trampa. Es difícil encontrar un ejemplo más claro de lo que he llamado el autocanibalismo de la educación.
El economista conservador Tyler Cowen ha ofrecido una visión aún más sombría de la “propuesta de valor” de la universidad moderna. “La educación superior persistirá como un servicio de citas, una forma de salir de casa y una oportunidad para salir de fiesta y ver partidos de fútbol”, escribió en “Todos usan IA para hacer trampa en la escuela. Y eso es bueno”. Desde esta perspectiva, la misión intelectual de la universidad ya está muerta, reemplazada por el credencialismo, el consumo y la conveniencia.
Cuando un joven de 21 años, que abandonó la universidad y fue suspendido por hacer trampa, nos da una charla sobre la inevitabilidad tecnológica, la respuesta no debería ser pánico moral, sino claridad moral: sobre qué intereses se están atendiendo. Hacer trampa ha dejado de ser una subcultura; se ha convertido en una identidad de marca y una ideología de capital riesgo. ¿Y por qué no? En la Chatversidad, hacer trampa ya no es una desviación, es la norma. Los estudiantes intercambian abiertamente indicaciones de jailbreak para que ChatGPT suene más tonto, insertan errores tipográficos y entrenan modelos en sus propios ensayos mediocres para “humanizar” el resultado.
Lo que está ocurriendo ahora es más que deshonestidad: es el desmoronamiento de cualquier entendimiento compartido sobre el propósito de la educación. Y los estudiantes no son irracionales. Muchos están bajo una enorme presión para mantener un promedio académico alto para obtener becas, ayuda financiera o visas. La educación se ha vuelto transaccional; hacer trampa se ha convertido en una estrategia de supervivencia.
Algunas instituciones simplemente se han dado por vencidas. La Universidad Estatal de Ohio anunció que el uso de IA ya no se consideraría una violación de la integridad académica. “De ahora en adelante, ningún caso de uso de IA en clases será una cuestión de integridad académica”, declaró el rector Ravi Bellamkonda a la radio pública WOSU. En un artículo de opinión, el exalumno de la OSU, Christian Collins, planteó la pregunta obvia: “¿Por qué un estudiante pagaría la matrícula completa, además de exponerse a la ruinosa trampa económica de la deuda estudiantil, para potencialmente ni siquiera recibir clases de un ser humano?”.
El profesorado que antes entraba en pánico por el plagio de IA ahora está siendo “empoderado” por universidades como CSU, Columbia y Ohio State para adoptar las mismas “herramientas” que temían. A medida que la corporativización aumenta el tamaño de las clases y la carga de trabajo del profesorado, la tentación es obvia: dejar que ChatGPT escriba conferencias y artículos de revistas, corrija ensayos y rediseñe los programas de estudio.
Toda esta simulación me recuerda un viejo chiste soviético de fábrica: “Simulan pagarnos, y nosotros simulamos trabajar”.
El antropólogo David Graeber escribió sobre el auge de los “trabajos de mierda”: trabajos que se sustentan no por necesidad ni sentido, sino por la inercia institucional. Las universidades ahora corren el riesgo de crear su gemelo académico: los títulos de mierda. La IA amenaza con profesionalizar el arte de la actividad sin sentido, ampliando la brecha entre la misión pública de la educación y sus rutinas vacías. En palabras de Graeber, estos sistemas infligen una “violencia psicológica profunda”: la disonancia de saber que el propio trabajo no sirve para nada.
Las universidades ya están atrapadas en este círculo vicioso: estudiantes que realizan acciones que saben que son vacías, profesores que califican trabajos que sospechan que no fueron escritos por estudiantes, administradores que celebran “innovaciones” que todos los demás entienden que están destruyendo la educación. La diferencia con los “trabajos de mierda” del mundo corporativo es que los estudiantes deben pagar por el privilegio de este teatro de aprendizaje ficticio.
Los administradores parecen incapaces de comprender lo obvio: la erosión del propósito fundamental de la educación superior no pasa desapercibida. Si ChatGPT puede redactar ensayos, aprobar exámenes y dar tutorías, ¿qué vende exactamente la universidad? ¿Por qué pagar decenas de miles por una experiencia cada vez más automatizada? ¿Por qué dedicar la vida a la docencia si se reduce a ingeniería rápida? ¿Por qué retener a profesores titulares cuyo rol parece anticuado, medieval y redundante? ¿Para qué existir universidades?
Estudiantes y padres sin duda han notado la decadencia. Las tasas de matriculación y retención están en desplome, especialmente en sistemas públicos como la CSU. Los estudiantes piensan, con razón, que no tiene sentido endeudarse excesivamente por títulos que pronto podrían quedar obsoletos.
El profesor de filosofía Troy Jollimore, de la Universidad Estatal de California en Chico, ve el futuro. Como advirtió en la revista New York Magazine: “Un gran número de estudiantes que saldrán de la universidad con títulos y se incorporarán al mercado laboral serán, en esencia, analfabetos”. Y añadió: “Cada vez que hablo de esto con un colega, surge lo mismo: la jubilación. ¿Cuándo puedo jubilarme? ¿Cuándo puedo salir de esto? Eso es lo que todos pensamos ahora”.
Asistí al seminario web educativo de OpenAI “Escribiendo en la era de la IA”. El evento fue presentado por Siya Raj Purohit de OpenAI, a quien había visto meses antes en el campus de la SFSU. Inició el evento con elogios a los educadores que “afrontan el momento con empatía y curiosidad”, antes de presentar a Jay Dixit, exprofesor de inglés de Yale, convertido en evangelista de la IA y ahora director de la Comunidad de Escritores de OpenAI.
El sitio web personal de Dixit se lee como una lista magistral de conquistas de ChatGPT: “¡Mi marco ético de IA ha sido adoptado!” “¡He definido la comunicación sobre IA!”, el tipo de discurso autocomplaciente para un currículum corporativo que haría sonrojar a un influencer de LinkedIn. Lo que siguió fue una mezcla surrealista de encanto de TED Talk, tecno-teología e instrucción moral.
La ironía no era sutil. Allí estaba Dixit, producto de una educación de élite de 80.000 dólares anuales en Yale, dando conferencias a profesores de universidades públicas como la Universidad Estatal de San Francisco sobre cómo sus estudiantes de clase trabajadora deberían adoptar el ChatGPT. En la SFSU, el 60% de los estudiantes son de primera generación en la universidad; muchos tienen varios empleos o provienen de familias inmigrantes donde la educación representa la única oportunidad familiar de ascender. Estos no son estudiantes que puedan permitirse experimentar con su futuro académico.
El mensaje de Dixit era puro evangelio de Silicon Valley: responsabilidad individual envuelta en clichés corporativos. Aconsejó a los profesores que no vigilaran el uso de ChatGPT por parte de los estudiantes, sino que los animaran a crear su propia “ética personal de IA” para apelar a sus superiores. En otras palabras, simplemente dejar la carga en manos de los estudiantes. “¡No externalicen la reflexión!”, proclamó Dixit, mientras vendía literalmente el chatbot.
La audacia fue impresionante. Dile a un joven de 18 años, cuya ayuda financiera, beca o visa depende de su promedio, que desarrolle una “ética personal de IA” mientras tú te beneficias de la misma tecnología diseñada para socavar su aprendizaje. Es el clásico jiu-jitsu neoliberal: replantear la erosión de las normas institucionales como una oportunidad para la formación del carácter. Sí, como un traficante de drogas dando una charla sobre responsabilidad personal mientras reparte muestras gratis.
Las contradicciones se acumulaban. Mientras Dixit proyectaba un folleto de Yale que ensalzaba el propósito de la educación liberal, aseguró al profesorado que ChatGPT podía servir como “socio creativo”, “caja de resonancia” e incluso “asistente editorial”. Escribir con IA no era algo que temer; simplemente estaba renaciendo. Y lo que importaba ahora era la adaptabilidad de los estudiantes. “El futuro es incierto”, concluyó. “Necesitamos preparar a los estudiantes para que sean ágiles, flexibles y estén listos para cualquier cosa”. (¿Dónde había oído antes ese término corporativo? Probablemente en una aburrida reunión de una escuela de negocios).
Todo el evento fue una clase magistral de manipulación psicológica. OpenAI crea las herramientas que facilitan el engaño y luego organiza seminarios web para vender estrategias de recuperación moral. Es el círculo vicioso de Silicon Valley: disrupción, pánico, ganancias.
En la Universidad Estatal de San Francisco, la profesora Martha Kenney, quien dirigía el departamento de Estudios de la Mujer y Género, describió lo que sucedió en su clase de ciencia ficción tras el anuncio de la colaboración entre CSU y OpenAI. Sus estudiantes, comentó, “eran, con razón, escépticos de que el uso regular de la IA generativa en el aula les privara de la educación por la que tanto pagan”, me comentó Kenney. La mayoría no había abierto ChatGPT Edu al final del semestre.
Su colega, Martha Lincoln, profesora de Antropología, fue testigo del mismo escepticismo. “Nuestros estudiantes tienen una motivación prosocial. Quieren contribuir”, me dijo. “Pagan mucho dinero para estar aquí”. Cuando Lincoln habló públicamente sobre el acuerdo de inteligencia artificial de la CSU, “Escuché a muchos estudiantes de Cal State, que ni siquiera estaban en nuestro campus, preguntándome: ‘¿Cómo puedo resistirme a esto? ¿Quién se está organizando?'”.
“ChatGPT no es una tecnología educativa”, explicó Kenney. “No fue diseñada ni optimizada para la educación”. Cuando la CSU implementó la colaboración, “no especifica cómo debemos usarla ni para qué. Normalmente, cuando compramos una licencia tecnológica, es para un software que se supone que hace algo específico… pero ChatGPT no”. “No se ha expuesto ninguna justificación pedagógica. No se trata del éxito estudiantil. OpenAI quiere convertir esto en la infraestructura de la educación superior, porque somos un mercado para ellos. Si priorizamos la IA como fuente de respuestas correctas, estamos eliminando el proceso de enseñanza y aprendizaje. Simplemente estamos vendiendo a precios irrisorios”.
La respuesta organizada está creciendo. La Asociación de Profesores de California (CFA) ha presentado una denuncia por prácticas laborales desleales contra la CSU por imponer la iniciativa de IA sin consultar al profesorado, argumentando que violaba los derechos de propiedad intelectual del profesorado, según la legislación laboral. En la Conferencia de Equidad de la CFA, la Dra. Safiya Noble, autora de Algoritmos de Opresión, instó al profesorado a exigir transparencia sobre cómo se almacenan los datos, la explotación laboral que se esconde tras los sistemas de IA y los daños ambientales de los que es cómplice la CSU.
La resistencia se extiende más allá de California. Profesores de universidades holandesas han publicado una carta abierta pidiendo una moratoria sobre la IA en el ámbito académico, advirtiendo que su uso “debilita el pensamiento crítico” y reduce a los estudiantes a meros operadores de máquinas.
La resistencia es real y plantea las preguntas que los líderes universitarios se niegan a responder. Como lo expresó Lincoln con total claridad: “¿Por qué nuestra institución compraría una licencia de un producto gratuito para hacer trampa?”
La periodista de investigación Karen Hao en su libro Empire of AI, muestra cómo el director ejecutivo Sam Altman disfraza sus ambiciones monopolísticas con un lenguaje humanitario: su imagen de monje de voz suave (¡caramba, el pequeño Sammy incluso practica la atención plena!) oculta un vasto y opaco imperio de capital riesgo y asociaciones gubernamentales que se extiende desde Silicon Valley hasta la Casa Blanca. Y aunque OpenAI defiende públicamente “alinear la IA con los valores humanos”, ha presionado a sus empleados para que firmen acuerdos vitalicios de no desprestigio bajo la amenaza de perder millones en acciones.
Hao compara este imperio con las fábricas de algodón del siglo XIX: tecnológicamente avanzado, económicamente dominante y construido sobre mano de obra oculta. Donde el algodón era el rey, ChatGPT ahora reina, sostenido por una explotación invisible. La revista Time reveló que OpenAI subcontrató la moderación de contenido de ChatGPT a la empresa keniana Sama, donde los trabajadores ganaban menos de 2 dólares la hora por filtrar material horrible en línea: violencia gráfica, discursos de odio y explotación sexual. Muchos quedaron traumatizados por el contenido tóxico. OpenAI exportó este sufrimiento a los trabajadores del Sur Global y luego renombró el producto desinfectado como “IA segura”.
La misma lógica de extracción se extiende al medio ambiente. El entrenamiento de modelos de lenguaje extenso consume millones de kilovatios-hora y cientos de miles de galones de agua al año, a veces tanto como pequeñas ciudades, a menudo en regiones propensas a sequías. Los costos se ocultan, se externalizan y se ignoran. Ese es el lema de OpenAI: prometer una utopía y externalizar el daño.
El sistema de la Universidad Estatal de California, que durante mucho tiempo se autodenominó “la universidad del pueblo”, se ha unido a esta cadena de suministro global. Su alianza de 17 millones de dólares con OpenAI —firmada sin una consulta significativa al profesorado— ofrece a estudiantes e instructores como probadores beta de una empresa que castiga la disidencia y agota los recursos públicos. Esta es la etapa final de la corporativización: la educación pública transformada en un sistema de distribución para el capital privado. La colaboración de la CSU con OpenAI es el último capítulo de una larga historia de imperio, donde los bienes públicos se conquistan, se reorganizan y se revenden como progreso.
Hemos visto hasta aquí la colonización económica e institucional de la educación pública, lo que sigue es su costo cognitivo y moral.
Un estudio reciente del MIT, “Tu cerebro en ChatGPT: Acumulación de deuda cognitiva al usar un asistente de IA para la tarea de redacción de ensayos”, proporciona evidencia esclarecedora. Cuando los participantes usaron ChatGPT para redactar ensayos, los escáneres cerebrales revelaron una caída del 47 por ciento en la conectividad neuronal en las regiones asociadas con la memoria, el lenguaje y el razonamiento crítico. Sus cerebros trabajaron menos, pero se sintieron igual de involucrados: una especie de espejismo metacognitivo. El 83 por ciento de los usuarios intensivos de IA no pudieron recordar los puntos clave de lo que habían “escrito”, en comparación con solo el 10 por ciento de los que escribieron sin ayuda. Los revisores neutrales describieron la escritura asistida por IA como “sin alma, vacía, carente de individualidad”. Lo más alarmante es que, después de cuatro meses de depender de ChatGPT, los participantes escribieron peor, una vez que se eliminó, que aquellos que nunca lo habían usado.
El estudio advierte que, al delegar la escritura a la IA, la forma en que las personas aprenden cambia radicalmente. Como advirtió el informático Joseph Weizenbaum hace décadas, el verdadero peligro reside en que los humanos adapten sus mentes a la lógica de las máquinas. Los estudiantes no solo aprenden menos, sino que sus cerebros aprenden a no aprender.
El autor y podcaster Cal Newport lo llama “deuda cognitiva”: hipotecar la aptitud cognitiva futura a cambio de una comodidad a corto plazo. Su invitado, Brad Stulberg, lo compara con usar una carretilla elevadora en el gimnasio: puedes pasar la misma hora sin levantar nada y seguir sintiéndote productivo, pero tus músculos se atrofiarán. El pensamiento, como la fuerza, se desarrolla mediante la resistencia; cuanto más delegamos nuestra tensión mental en las máquinas, más perdemos la capacidad de pensar.
Esta erosión ya es visible en las aulas. Los estudiantes llegan con fluidez en la instrucción, pero reticentes a articular sus propias ideas. Los ensayos parecen pulidos pero forzados, elaborados con sintaxis sintética y pensamiento prestado. El lenguaje de la reflexión —me pregunto, me debato, ahora veo— está desapareciendo. En su lugar, llega la gramática limpia de la automatización: fluida, eficiente y vacía.
La verdadera tragedia no es que los estudiantes usen ChatGPT para realizar sus trabajos académicos. Es que las universidades están enseñando a todos – estudiantes, profesorado, administradores – a dejar de pensar. Estamos externalizando el discernimiento. Los estudiantes se gradúan con fluidez en la inducción, pero analfabetos en el juicio; el profesorado enseña, pero no tiene la libertad de educar; y las universidades, ansiosas por parecer innovadoras, desmantelan las mismas prácticas que las hicieron merecedoras de ese nombre. Nos acercamos a la bancarrota educativa: títulos sin aprendizaje, enseñanza sin comprensión, instituciones sin propósito.
Link https://www.currentaffairs.org/news/ai-is-destroying-the-university-and-learning-itself








