Cerrar

Más exámenes orales, ensayos escritos a mano y tareas en clase: Cómo las universidades están lidiando con ChatGPT

La proliferación de casos en que esta herramienta de IA se está mal usando para redactar trabajos académicos está llevando a las instituciones a reformular sus metodologías de enseñanza y evaluación.

ChatGPT es la herramienta más sofisticada de Inteligencia Artificial conocida hasta ahora. Con breves instrucciones, este robot conversacional –que fue lanzado en noviembre pasado por OpenAI– puede responder, en teoría, cualquier requerimiento de un humano.

Es capaz de generar textos tan bien escritos, articulados y llenos de matices que da estupor, y las personas le están pidiendo que redacte textos, sintetice libros, escriba cartas, invente poemas, canciones, historias de ficción, guiones e incluso que de consejos.

Se trata de una Inteligencia Artificial de tipo “Generativa”, que produce contenido original a partir de datos que ya existen. Para esto, utiliza algoritmos y redes neuronales avanzadas para “aprender” de textos e imágenes y luego generar contenido nuevo.

Con esta potencialidad prácticamente infinita, no han tardado en aparecer quienes han comenzado a pedirle que haga sus tareas y trabajos del colegio o la universidad.

Cuando el “mejor ensayo de la clase” fue escrito por un bot

“The New Times” relata el caso de Antony Aumann, un profesor de Filosofía de la Universidad del Norte de Míchigan, Estados Unidos, quien estaba revisando los ensayos de su curso de religiones del mundo, cuando leyó un trabajo que lo sorprendió. Éste exploraba la moralidad de la prohibición de las burkas con párrafos limpios, ejemplos adecuados y argumentos rigurosos. Sin duda, era “el mejor ensayo de la clase”.

Sin embargo, una señal de alarma se encendió en su cabeza y decidió confrontar al alumno para saber si él había escrito el ensayo. El estudiante le confesó que había utilizado ChatGPT. Impactado con su descubrimiento, el docente modificó su metodología para el semestre siguiente: ahora les exige a los alumnos que escriban los primeros borradores en la sala de clase y que tengan que explicar cada corrección posterior que le realicen.

Pero no solo cambiará su forma de evaluar. También pretende integrar ChatGPT a las clases: “En las clases, la dinámica ya no será así: ‘Aquí hay algunas preguntas y vamos a hablar del tema entre nosotros como seres humanos’, sino que será así: ‘¿Qué piensa también este robot alienígena?’“.

El caso da cuenta de cómo la irrupción de ChatGPT tendrá un impacto ineludible en los métodos de enseñanza. Según el medio, en todo EE.UU. profesores universitarios y jefes de carrera están empezando a reformar las clases en respuesta a esta herramienta de IA.

Detalla que algunos profesores están rediseñando por completo sus cursos, introduciendo más exámenes orales, trabajos en grupo, ensayos escritos a mano y evaluaciones manuscritas en vez de tecleadas. También se están eliminando las tareas en casa y reemplazándolas por tareas en clase. Esto está ocurriendo, por ejemplo, en la Universidad George Washington, de Washington D.C., en la Universidad Rutgers de New Brunswick, Nueva Jersey, y en la Universidad Estatal de los Apalaches en Boone, Carolina del Norte.

Por lo visto, se estarían acabando las instrucciones del tipo “escribe cinco páginas sobre esto o aquello”. En su lugar, algunos profesores han empezado a elaborar preguntas que –esperan– sean demasiado ingeniosas y humanas para ChatGPT. Por ejemplo, les piden a los alumnos que escriban sobre sus propias vidas. Frederick Luis Aldama, catedrático de Humanidades de la Universidad de Texas, en Austin, dice que planea enseñar textos más nuevos o muy especializados sobre los que este bot conversacional podría tener menos información.

Junto a estas medidas, las universidades estadounidenses también quieren educar a sus estudiantes con una mirada ética sobre las nuevas herramientas de IA. La Universidad de Búfalo, Nueva York, y la Universidad de Furman, Carolina del Sur, incorporarán el tema en los cursos obligatorios en que enseñan conceptos de integridad académica a los estudiantes nuevos.

En paralelo, algunos profesores y universidades planean utilizar detectores de plagio con IA. El servicio de detección de plagios Turnitin informó que este año incorporará más funciones para identificar IA, incluido ChatGPT. Y Miles de profesores de las universidades de Harvard, Yale y Rhode Island, entre otras, también se han inscrito para utilizar GPTZero, un programa que promete detectar con rapidez un texto generado por medio de Inteligencia Artificial.

En Chile se han detectado casos en propuestas de memoria

Las universidades chilenas tampoco están ajenas al impacto de esta nueva tecnología. “En la Facultad de Ingeniería hemos tenido casos donde parte de las tareas y propuestas de memorias de título han sido generados con ChatGPT”, comenta a Emol José Tomás Montalva, director de gestión y desarrollo académico de la Universidad Finis Terrae.

Para el docente de esa facultad, Darío Rojas, “aún es posible detectar, en varios casos, la redacción de la Inteligencia Artificial, ya que es distinta a la redacción normal de un estudiante”.

En esa una universidad le han estado informado a los docentes sobre ChatGPT y están realizando una revisión de literatura nacional e internacional, y participando en diversas instancias, para aprender más sobre estas nuevas herramientas de IA.

Montalva señala que “la manera de lidiar con esta tecnología es distinta en cada una de las carreras, y esto pasa por el tipo de contenidos que se tratan. Por ejemplo, en las carreras del área de la Salud esta tecnología tendría menos espacio que en otras donde se realizan análisis como ensayos o similares“.

Dice que esto presenta un “desafío metodológico” que se debe abordar poniendo el foco en el “aprendizaje activo y experiencial”, en que se procure que “los estudiantes sean capaces de construir soluciones sin ayuda de estas tecnologías y que se evalúen más las competencias del perfil“. Con todo, le están solicitando a los profesores que utilicen la IA “como una herramienta aliada para el aprendizaje y no como un enemigo”.

En la Universidad de los Andes un docente ya probó este bot en clases. Rodrigo Fernández, académico de la Facultad de Ingeniería, relata –en una carta a “El Mercurio”– su experiencia usando ChatGPT en su curso “Ingeniería y Gestión de Tránsito”, de tercer año de Ingeniería Civil.

En la primera clase hicimos una dinámica (…) en que grupos de seis personas discuten durante seis minutos sobre una problemática. En seguida, el líder de cada grupo relata las conclusiones a las que llegaron. La pregunta fue: ¿Cómo resolver la congestión de tránsito en las ciudades? Como resultado obtuvimos una lista de propuestas, algunas mejores que otras. Luego hicimos la misma pregunta a ChatGPT. Sus afirmaciones, aunque vagas, fueron acertadas“, cuenta.

“Mi conclusión es que la inteligencia artificial, como ChatGPT, se puede usar como punto de partida para examinar un problema, pero no reemplaza al conocimiento teórico, razonamiento profundo, sentido crítico y criterio práctico“, afirma.

Originalidad y reflexión personal: La UC promueve cambio metodológico

En la Pontificia Universidad Católica la aparición de ChatGPT también ha sido tema entre decanos y académicos. “Hemos tenido más preocupación de parte de decanos y decanas de Ingeniería y de Ingeniería Comercial; no estoy seguro de si es porque ven que en sus cursos puede haber este tipo de problemas, o porque están más relacionados con las tecnologías y rápidamente saben del tema. Pero fueron los primeros que hicieron preguntas al respecto”, comenta a Emol Gonzalo Pizarro, director de la Dirección Académica de Docencia (DADo) UC.

Dice que están elaborando un documento –que, esperan, esté listo la próxima semana– con recomendaciones generales para los académicos sobre esta nueva herramienta. “Estamos haciendo todas estas indicaciones para que, por un lado, sepan bien que existe (ChatGPT), sepan cuáles son las capacidades que tiene esta Inteligencia Artificial, y vuelvan a pensar sus cursos y sus evaluaciones con esta herramienta que existe”, señala.

En línea con lo que ya están aplicando varias universidades estadounidenses, en la UC promueven que los profesores modifiquen los tipos de trabajo que encargan a sus alumnos, de modo que “sean difíciles de generar con un sistema de Inteligencia Artificial”. “Lo que estamos pidiendo es que los trabajos que se soliciten requieran pensamiento original (…) Si tú das tareas donde pides que haya un pensamiento crítico y una reflexión es mucho más complicado que una Inteligencia Artificial lo haga, porque ChatGPT toma información de las fuentes que tiene”, señala Pizarro.

Menciona que “en facultades como Letras, Filosofía, los trabajos que se piden son muy reales, en el sentido de que es una opinión personal sobre algo y no como ‘cuéntame la historia de Sócrates’. Es una reflexión personal sobre un texto. Y eso es algo que te puedes dar cuenta demasiado fácil que lo hizo ChatGPT, porque no va a tener un pensamiento ‘personal’ al respecto”.

Mira a ChatGPT como “una forma nueva de cosas que ya han ocurrido en otros momentos”. “Ahora hay otra herramienta dando vueltas, así como 30 años atrás empezaron a haber calculadoras y en una prueba de matemáticas, donde antes se evaluaba la aritmética, se pasó a un nivel superior de reflexión, donde lo que interesa es la forma de tomar decisiones para llegar a la respuesta”. “Entonces, la forma en que tú enseñas y evalúas se adecúa a la existencia de herramientas que hacen irrelevantes las preguntas que eran importantes antes“, afirma.

Aclara que en la UC no se va a prohibir esta tecnología, pero lo que esté y no permitido dependerá del docente. “Los profesores deciden cuándo, cómo y dónde usar IA dentro de sus cursos. Podría ser que el profesor permita usar IA para la edición del texto, entonces está bien, pero si el profesor dice que no quiere que usen IA, si (los alumnos) la usan, estarían cometiendo un fraude en ese trabajo, y si los pillan van a pasar por el proceso de sanción”, explica.

Los profesores también podrán apoyarse en el detector de plagios Turnitin, software que la universidad tiene contratado desde hace un tiempo y que ahora anunció que en abril próximo lanzará una actualización en que será capaz de detectar escritura hecha por IA.

Pero nada de esto es infalible. De hecho, Pizarro apunta que desde mucho antes de ChatGPT, ya existe la “trampa por encargo”, en que alguien escribe el trabajo en lugar de otro, lo que “es aún más difícil de detectar que la IA, porque lo escribe un humano”.

Por esto, en la UC apuestan por generar más bien “un cambio en la cultura”, creando conciencia en los alumnos del valor ético del trabajo honesto y que entiendan que “hacer trampa en tareas, en trabajos, no ayuda al aprendizaje”. Para esto, hace dos años están implementando una política de integridad académica que, entre otras iniciativas, incluye un curso que deben realizar todos los alumnos nuevos.

Fuente: Emol

scroll to top