Seleccionar página

ChatGPT, un chatbot impulsado por inteligencia artificial (IA), tiene menos de dos meses, pero ya está aterrorizando a los maestros que ahora imaginan que los estudiantes de noveno grado y los estudiantes de primer año de la universidad envían los ensayos de ChatGPT en lugar de los suyos.

ChatGPT puede producir un ensayo en quizás 20 segundos, mucho más rápido que buscar y copiar un ensayo en línea o copiarlo de SparkNotes. Para los plagiadores y plagiadores, el antídoto ha sido durante mucho tiempo Turnitin.com, un software que se basa en una base de datos de millones de textos y tareas, que etiqueta fácilmente cada parte de la prosa prestada con sus orígenes, hasta la universidad o la ubicación de la escuela secundaria. escuela donde se presentó el contenido. La tecnología da y la tecnología quita.

Sin embargo, ahora, los maestros se preocupan por la posibilidad de que la IA se vuelva indetectable, ya que ChatGPT puede generar ensayos de novo, sin copiar cadenas de trabajos en línea, temores confirmados por una característica reciente en el New York Times. Pero esos temores, al menos por ahora, son un poco prematuros, incluso si la IA como ChatGPT requiere que los maestros presten más atención a la escritura de sus alumnos.

Cuatro periodistas crearon un experimento que evaluó si un panel de expertos podía notar la diferencia entre los ensayos escritos por estudiantes de cuarto y octavo grado y los escritos por ChatGPT. Como era de esperar, los expertos fallaron, un poco como los desafortunados reclutas a los que se les pidió que distinguieran entre un psicoterapeuta y la bisabuela de ChatGPT, Eliza de Joseph Weizenbaum, el primer chatbot que prometió pasar la prueba de Turing comportándose como lo haría un ser humano. Sin embargo, Eliza simplemente extrajo guiones y usó la combinación de patrones para interactuar con los usuarios, imitando a un psicoterapeuta rogeriano para convertir las respuestas de los usuarios en preguntas. En contraste, ChatGPT puede escribir música, conversar, escribir ensayos y, como se menciona en una publicación reciente en BlogDePsicología, incluso escribir ensayos al estilo de cualquiera que haya publicado un texto en línea.

Sin embargo, los ensayos de ChatGPT no deberían haber desconcertado al panel del New York Times que constaba de un maestro de cuarto grado, un tutor de escritura, un profesor de educación de Stanford y la novelista YA Judy Blume. El Times convirtió amablemente su función en ChatGPT en una prueba que invita a los lectores a detectar el ensayo generado por ChatGPT. A pesar de las conjeturas torpes del panel, los esfuerzos de ChatGPT son bastante fáciles de detectar, incluso cuando sus instrucciones incluían algunos errores tipográficos. Primero, las respuestas de ChatGPT son peculiarmente genéricas, pero consistentes en su manejo de la estructura de las oraciones, la gramática, el uso y la puntuación. Por ejemplo, en uno de los ensayos de ChatGPT, escrito como estudiante de cuarto grado, cada sustantivo aparece junto a un adjetivo en un párrafo:

Me gusta llevar un delicioso sándwich y una caja de jugo frío para el almuerzo y, a veces, incluso empaco una sabrosa pieza de fruta o una bolsa de papas fritas crujientes.

En contraste, el ensayo del alumno de cuarto grado ahorra los adjetivos por completo:

Primero como mi sándwich, luego abro mi bebida, luego como mi fruta y, por último, pero no menos importante, mi regalo … Por lo general, jugamos cuatro cuadrados o jugamos en el patio de recreo. Si no estamos en el patio de recreo o en el terreno de cuatro cuadrados, estamos en el campo jugando a la mancha, al kickball o al fútbol.

Sin adjetivos emparejados, solo sustantivos duros para el almuerzo, seguidos del tipo de manejo inconsistente de playground, que son primero dos palabras, luego una. ChatGPT es un modelo de seguir las reglas; los niños no lo son.

Además, ChatGPT, como todo lo digital, es un motor de consistencia. Si bien los periodistas del NYT instruyeron a ChatGPT para que incluyera varios errores tipográficos en los ensayos de octavo grado, ChatGPT no logra emular los patrones irregulares de error que cometen los estudiantes, como descubrirá cualquiera que use el chatbot. Pídele que cometa errores gramaticales y de puntuación en un ensayo, algo que pocos estudiantes pedirían, incluso si quieren asegurarse de que su ensayo parezca auténtico, y ChatGPT responde con empalmes de coma en cada oración y comas omitidas antes de las conjunciones de coordinación. Pero los estudiantes rara vez son tan consistentes en el uso de la puntuación. De hecho, con frecuencia detectan y corrigen algunos errores mientras no ven otros, de acuerdo con su dominio incompleto de las reglas de puntuación, así como una revisión superficial o inexistente después de que terminan de escribir.

Volvamos a los relatos de ChatGPT y las reacciones del panel desconcertado a los ensayos, que ofrecen información sorprendente sobre las formas generales en que los maestros responden a la escritura de los estudiantes que dejó a los panelistas incapaces de distinguir entre el chatbot y el niño de carne y hueso. El profesor de educación de Stanford cree que un chatbot nunca usaría un diálogo extenso en un ensayo, pero luego no detecta una serie de mensajes particularmente evidentes en el mismo párrafo:

El hombre se rió. “Entiendo su confusión, señora presidenta, pero el hecho es que ahora es la presidenta de los Estados Unidos. Fuiste elegido por el presidente anterior para ser su sucesor en caso de que algo le sucediera.

Aquí, nuevamente, la consistencia de la puntuación correcta sugiere un bot, no un estudiante de octavo grado, como lo hace el modo subjuntivo, en el caso de que le sucediera algo, con lo que incluso los estudiantes de noveno o décimo grado, en el mejor de los casos, se asociarían si , en lugar de la señal mucho más vacilante para el subjuntivo, en el caso de que.

¿Todavía te aterra que tus estudiantes comiencen a recurrir a ChatGPT para sus ensayos? Intente usar el Detector de salida GPT-2, basado en el precursor de IA de ChatGPT, que calcula de manera rápida y precisa las probabilidades de que un bot haya producido un ensayo, en lugar de un niño, especialmente si la muestra tiene más de 50 palabras. .

La tecnología da y la tecnología quita.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información

ACEPTAR
Aviso de cookies