La inteligencia artificial (IA) ha llegado para quedarse. Su capacidad para procesar información, redactar textos, resolver problemas e incluso ofrecer consejos en tiempo real ha revolucionado la forma en que trabajamos, estudiamos y enseñamos. Pero cuando se trata de educación universitaria, ¿dónde está el límite ético en su uso? ¿Y qué pasa cuando son los propios profesores quienes la utilizan ChatGPT como herramienta principal de enseñanza?
Esto es justamente lo que ocurrió en la Universidad de Northeastern, en Boston, Estados Unidos, donde una estudiante denunció públicamente a un docente por utilizar ChatGPT para diseñar sus clases. El incidente ha abierto un debate sobre la calidad del servicio educativo, el rol de los profesores y los derechos de los estudiantes.
Un reclamo inesperado: “Quiero el reembolso de mi matrícula”
Ella Stapleton, estudiante de la Universidad de Northeastern, se percató de que algo no cuadraba en las clases que recibía. Los contenidos presentaban errores inusuales, frases sin sentido y estructuras que, más que humanas, parecían generadas por un modelo de IA. Pero fue una referencia bibliográfica la que encendió las alarmas: el nombre «ChatGPT» aparecía citado como fuente, algo poco común y hasta entonces inaceptable en la academia.
Además, uno de los párrafos del material de clases contenía una instrucción típica que suele aparecer cuando se copia directamente desde la herramienta de inteligencia artificial: “Expanda todas las áreas. Sea más detallado y específico”. Para Stapleton, esto confirmaba que el profesor no solo había usado IA como apoyo, sino que había integrado sus textos sin siquiera editar o revisar el contenido.
Tras confirmar sus sospechas, compartió el hallazgo con sus compañeros y formalizó una denuncia ante la universidad. En su reclamo, exigió el reembolso total de su matrícula —superior a los 8 mil dólares— argumentando que había pagado por una educación impartida por profesionales y no por un contenido generado por una máquina.
El docente reconoce el uso de IA
El profesor aludido, Rick Arrowood, no negó los hechos. Por el contrario, admitió haber utilizado plataformas de inteligencia artificial para preparar su material docente. Reconoció también que debería haber reflexionado más profundamente sobre cómo integrar esas herramientas en sus clases, respetando los estándares académicos y comunicándolo abiertamente a sus estudiantes.
La universidad, sin embargo, rechazó la solicitud de reembolso de la estudiante. Desde la administración de Northeastern indicaron que el uso de IA no está prohibido para los docentes, siempre y cuando se citen las fuentes adecuadamente y se verifique la calidad y confiabilidad del contenido generado.
¿Una nueva brecha entre lo permitido y lo ético?
Este caso deja en evidencia una tensión creciente entre innovación tecnológica y responsabilidad académica. Si bien es cierto que la IA puede ser una aliada poderosa para los docentes —ayudándoles a planificar, redactar, resumir o ilustrar conceptos—, su uso sin filtros, sin curaduría y sin transparencia puede socavar la confianza de los estudiantes en la calidad del proceso educativo.
En un entorno universitario, donde los alumnos pagan cifras considerables por acceder a una formación de excelencia, es comprensible que se esperen clases diseñadas con rigor humano, reflexión crítica y experiencia profesional. La inteligencia artificial puede complementar, pero no debería sustituir el juicio del educador ni la interacción genuina en el aula.
¿Y ahora qué?
El caso de Northeastern no es aislado. Cada vez más instituciones de educación superior están debatiendo políticas claras sobre el uso de herramientas como ChatGPT, tanto por parte de estudiantes como de profesores. Algunos centros las promueven como apoyo pedagógico; otros aún dudan de su fiabilidad y su impacto en la formación profunda.
Lo cierto es que la IA no es el problema, sino el uso que se le da. Integrarla con responsabilidad, declararla cuando corresponda, y usarla para mejorar —no para reemplazar— el ejercicio docente, parece ser el camino más sensato. Pero si los alumnos detectan que el contenido que reciben proviene directamente de un algoritmo, sin adaptación, sin criterio y sin valor agregado, el reclamo es legítimo: no están pagando por eso.
La pregunta queda abierta: ¿puede un profesor enseñar con ChatGPT sin traicionar su rol? ¿O el verdadero desafío es aprender a convivir con esta tecnología sin perder el alma de la enseñanza?
REDACCIÓN WEB DEL MAESTRO CMF