¡Sorpresa! Los chatbots de inteligencia artificial no aumentan el engaño de los estudiantes después de todo, descubre una nueva investigación.

¡Sorpresa! Investigación reciente muestra que los chatbots de inteligencia artificial no aumentan el engaño en estudiantes.

handcheat-gettyimages-181866634

El auge de las herramientas de inteligencia artificial generativa ha dejado a muchos preocupados por la integridad futura del sistema educativo. Después de todo, si puedes obtener ayuda con matemáticas, escritura y programación de una herramienta gratuita como ChatGPT, ¿qué impide a los estudiantes utilizarla para hacer trampas en cada tarea? Investigadores de Stanford abordan la pregunta en un Q+A publicado por la universidad.

También: La inteligencia artificial generativa puede convertirse fácilmente en maliciosa a pesar de las medidas de seguridad, según estudiosos

Los expertos en educación de Stanford, Victor Lee y Denise Pope, descubrieron que hacer trampas no tiene mucho que ver con la tecnología a la que los estudiantes pueden acceder, incluida la IA.

“Se ha cubierto mucho en los medios sobre cómo la IA facilita y hace más probable que los estudiantes hagan trampas”, dijo Pope. “Pero hasta ahora no hemos visto que eso se refleje en nuestros datos”.

Según Pope, las altas tasas de trampas han plagado durante mucho tiempo los sistemas escolares antes de la llegada de ChatGPT y tecnologías similares de IA, con un 60-70% de estudiantes que informan haber participado en al menos un comportamiento de “hacer trampa” durante el mes anterior.

Ese número se ha mantenido igual o incluso ha disminuido ligeramente en las encuestas de 2023 a pesar de agregar preguntas que abordan específicamente a ChatGPT y el fácil acceso de los estudiantes a la tecnología, agregó Pope.

También: La ayuda de escritura de IA de Grammarly llega a tu iPhone. Así es como usarla hoy

Para abordar el escepticismo que las personas pueden tener sobre si los estudiantes responden sinceramente a esas encuestas, los investigadores comparten que los estudiantes suelen ser honestos, ya que las encuestas son anónimas y no preguntan directamente “¿Haces trampa?”, sino que hacen preguntas específicas clasificadas como trampas.

“Lo más prudente que se puede decir ahora mismo es que los datos sugieren, quizás para sorpresa de muchas personas, que la IA no está aumentando la frecuencia de las trampas”, dijo Lee.

También: La IA generativa puede ser la asistente académica que un estudiante desfavorecido necesita

Sin embargo, la pregunta sigue en pie: ¿Qué lleva exactamente a los estudiantes a hacer trampas? Pope menciona una variedad de factores, como tener dificultades con el material; no poder obtener la ayuda que necesitan; tener demasiada tarea y no suficiente tiempo para hacerla; y estar abrumados por la presión para tener éxito.

“Sabemos por nuestra investigación que hacer trampas generalmente es un síntoma de un problema más profundo y sistémico”, dijo Pope.

Al aconsejar a los líderes escolares sobre cómo proceder, los investigadores alentaron a los educadores a incorporar la IA en el aula de manera que la tecnología sea útil para los estudiantes sin comprometer la ética, ya que la IA no desaparecerá en última instancia.

También: El asistente de IA de Google Workspace, Duet AI, está a punto de volverse mucho más inteligente

“Considero que la alfabetización en IA es similar a la educación vial. Tenemos una herramienta poderosa que puede ser de gran ayuda, pero también puede ser peligrosa”, dijo Lee. “Queremos que los estudiantes aprendan a usarla de manera responsable”.

ENBLE ha cubierto anteriormente herramientas de IA que pueden ser aprovechadas por estudiantes, profesores y padres y formas específicas de utilizar la IA de manera ética y ayudar con el trabajo escolar, como utilizarla para escribir ensayos, crear gráficos y tablas, y resumir libros, artículos o trabajos de investigación.