Contenido creado por Sin autor
Tecnología

Por The New York Times

Un nuevo dolor de cabeza para los estudiantes honestos: demostrar que no utilizaron IA

A las pocas semanas de empezar su segundo año de universidad, Leigh Burrell recibió una notificación que le hizo sentir un nudo en el estómago.

20.05.2025 10:04

Lectura: 6'

2025-05-20T10:04:00-03:00
Compartir en

Por The New York Times | Callie Holtermann

A las pocas semanas de empezar su segundo año de universidad, Leigh Burrell recibió una notificación que le hizo sentir un nudo en el estómago.

Le habían puesto cero en un trabajo que valía el 15 por ciento de su calificación final en un curso obligatorio de redacción. En una breve nota, su profesor explicaba que creía que había recibido ayuda de un chatbot de inteligencia artificial para redactar su trabajo (una supuesta carta de presentación).

“Sentí que se me paraba el corazón”, relató Burrell, de 23 años, estudiante de informática en la Universidad de Houston-Downtown.

Lo cierto es que el trabajo que entregó Burrell no fue el producto instantáneo de un chatbot. Según el historial de edición de Google Docs examinado por The New York Times, Burrell tardó dos días en redactar y revisar la tarea. No obstante, un servicio ofrecido por la empresa de detección de plagios Turnitin, cuyo fin es identificar texto generado por inteligencia artificial, marcó el documento como sospechoso.

Presa del pánico, Burrell apeló la decisión. Obtuvo su calificación tras enviarle al director de su departamento de inglés un PDF de 15 páginas que contenía capturas de pantalla con hora registrada y notas sobre el proceso que siguió para escribir el trabajo.

Aun así, el episodio la hizo muy consciente de los peligros que enfrentan los estudiantes (incluso los honestos) en un panorama académico distorsionado por trampas con la IA.

Las herramientas de IA generativa, como ChatGPT, han transformado por completo la educación para los estudiantes que las aprovechan para ahorrar tiempo. Según una encuesta realizada por el Centro de Investigación Pew el año pasado, el 26 por ciento de los adolescentes afirmaron haber utilizado ChatGPT para realizar trabajos escolares, el doble que el año anterior. Ahora que los estudiantes utilizan chatbots de IA para redactar ensayos y resolver problemas de codificación, los profesores buscan desesperadamente soluciones.

Por desgracia, el espectro del uso indebido de la IA y los imperfectos sistemas utilizados para erradicarlo quizá también estén afectando a los estudiantes que respetan las normas. En distintas entrevistas, estudiantes de nivel medio superior y superior describieron sufrir ansiedad persistente por la posibilidad de ser acusados de utilizar IA en trabajos que sí realizaron y de enfrentar consecuencias académicas con posibles efectos devastadores.

En respuesta, muchos estudiantes han recurrido a métodos de autovigilancia que, desde su perspectiva, más bien son de autopreservación. Algunos graban su pantalla durante horas mientras realizan sus tareas escolares. Otros utilizan únicamente procesadores de texto capaces de rastrear las teclas presionadas y producir un historial de edición detallado cuando redactan los trabajos de clase.

La siguiente vez que Burrell tuvo que entregar un trabajo para la clase en la que la acusaron de utilizar IA, subió a YouTube un video de 93 minutos en el que había documentado su proceso de escritura. Comentó que fue molesto, pero lo consideró necesario para estar tranquila.

“Estaba muy frustrada y paranoica porque mi calificación podía verse afectada por algo que yo no había hecho”, relató.

Los temores de estos estudiantes se ven confirmados por investigaciones publicadas en The Washington Post y Bloomberg Businessweek que indican que el software de detección de IA, una industria en auge en años recientes, a menudo identifica trabajo generado por IA erróneamente.

Un nuevo estudio de más de diez servicios de detección de IA realizado por investigadores de la Universidad de Maryland descubrió que, en promedio, esos servicios habían marcado erróneamente texto escrito por humanos como generado por IA en un 6,8 por ciento de los casos.

“Al menos según nuestro análisis, los detectores actuales no están listos para usarse en la práctica en las escuelas con el propósito de detectar el plagio de IA”, afirmó Soheil Feizi, uno de los autores del artículo y profesor asociado de informática en Maryland.

Turnitin, cuyo servicio no estuvo incluido en el análisis, reconoció en 2023 que su software marcaba erróneamente frases escritas por humanos en alrededor de un cuatro por ciento de instancias. OpenAI indicó que dejó de utilizar al cabo de seis meses un programa de detección de que tenía una tasa de falsos positivos del nueve por ciento.

Turnitin no respondió a las solicitudes de comentarios para este artículo, pero ha advertido que sus puntuaciones no deben utilizarse como único factor determinante del uso indebido de IA.

“No podemos mitigar por completo el riesgo de falsos positivos dada la naturaleza de la escritura y el análisis de la IA, por lo que es importante que los educadores utilicen la puntuación de la IA para iniciar un diálogo significativo y serio con sus alumnos en tales casos”, escribió Annie Chechitelli, directora de producto de Turnitin, en una entrada de blog en 2023.

Sydney Gill, de 18 años, estudiante de último año de secundaria en San Francisco, dijo que comprende que los profesores están en una posición extremadamente difícil en vista del desorden causado por la IA en el entorno académico. Añadió que ha cuestionado su propia escritura desde que un ensayo que presentó a un concurso de redacción a finales de 2023 fue identificado erróneamente como generado por IA.

Esa ansiedad persistió mientras escribía solicitudes de isión a la universidad este año. “No quiero decir que me cambió la vida, pero sin duda cambió mi forma de abordar la forma en que escribo en el futuro”, reconoció.

En 2023, Kathryn Mayo, profesora del Cosumnes River College en Sacramento, California, empezó a utilizar herramientas de detección de IA de Copyleaks y Scribbr para revisar los textos de los alumnos de sus clases de historia y teoría de la fotografía. Al principio, sintió alivio por haber encontrado una solución que esperaba fuera sencilla en un momento complejo y frustrante para los profesores.

Entonces pasó por el servicio algunos textos que ella había escrito y le notificaron que habían sido generados en parte mediante IA. “Me sentí muy avergonzada”, comentó.

Desde entonces, ha cambiado algunas de sus tareas con el objetivo de hacerlas más personales, lo que espera que les dificulte a los estudiantes externalizarlas a ChatGPT. Intenta entablar una conversación serena sobre el proceso de escritura cuando tiene sospechas serias de que algún alumno ha hecho mal uso de la IA.

En su experiencia, a veces los alumnos iten avergonzados que hicieron trampa. Otras veces, solo dejan de asistir a la clase.