Cómo hablarás de IA en tu syllabus

¿Usar la IA en el aula es copiar en clase? ¿Cómo debemos interpretar el «trabajo individual» en el nuevo contexto de la IA generativa?

En el trimestre pasado no tuve que cambiar el syllabus de mi programa en la universidad porque ChatGPT, el famoso robot creativo pensante de OpenAI, hizo su sonado debut después. Les hablé de notionAI, una IA para escribir trabajos, justo antes de que presentaran sus trabajos finales. No dejaba de ser un comentario pintoresco. Pero para la próxima edición sé que tengo que pensar qué hacer. ChatGPT y otras herramientas basadas en modelos tecnológicos similares que han recibido un creciente interés lo cambia todo.

El detective Poirot en «Muerte bajo el sol» (1982)

A nivel institución no creo que se prohíba el uso de la herramienta y me parece bien. Hasta que llegue mi trimestre estoy siguiendo con interés las opciones de libertad de cátedra de otros profesores. Por ahora lo que he apuntado es que a la acción de prohibir trabajos realizados con herramientas de IA generativa (así se clasifican programas como ChatGPT) han surgido reacciones en las que la IA sí se permite, pero con un cambio de foco crucial: se le hace partícipe al alumno de que el fin es que el/la alumno/a piense de forma crítica.

Creo que casi todos tenemos en nuestro programa una frase como esta: “tu trabajo final debe ser su trabajo individual con tus propias palabras”. Otra más genérica y académica dice que “los estudiantes deben mostrar un compromiso claro de tolerancia cero a falsificar o copiar trabajos sin la atribución debida”.

Necesitamos un nuevo manual de estilo: ¿Usar la IA es copiar?

Cómo tratar el trabajo generado por la IA. La cuestión no es temerlo. Incluso Google acaba de adaptar su guía de SEO de contenidos para incluir los contenidos automáticos. Serán buenos siempre que un humano encuentre en ellos lo que busque. Serán malos si como en el caso de textos escritos por humanos son spam o contenido de poco valor.

En mi programa enseño a los estudiantes a usar la tecnología para crear valor en sus negocios. Es un curso introductorio a proyectos de transformación digital. Sería paradójico que una tecnología avanzada fuese explicada pero no usada. Aunque cometa muchos errores (se dice que el robot produce alucinaciones cuando mezcla hechos con cosas que no lo son) la tendencia es a terminar siendo un elemento de muchos productos comerciales. Una profesora canadiense que leo en las redes sociales, Terry Griffith, tiene una diatriba similar. Dice que tiene claro que en su curso (su tema es también la innovación) la noción de “trabajo individual” debe cambiar.

Qué significa “trabajo individual” en el nuevo contexto

¿Pero cómo explicar a los alumnos/as lo que significa un trabajo individual en este nuevo contexto de ChatGPT y otras herramientas de IA generativa? Terry ha definido un nuevo manual de estilo: “Usar IA no se considerará copiar en mi curso, pero lo será hacerte pasar por la IA”.

Anónimo (visto en RRSS)

Defender que usar la IA no es copiar es una importante declaración que cambia las reglas éticas. Deja también las cosas más claras para los alumnos que incluir en el syllabus una lista de los límites de la tecnología que el estudiante debe conocer, la opción que he visto en otros syllabus. En aquellos se dicen cosas como: se consciente que el resultado es pobre si no usas los “prompt” bien; no creas todo lo que pone especialmente si son cifras; explica los “prompts” con los que usaste la IA, etcétera.

La idea de Terry deja pie a menos interpretaciones: pide que los/las alumnos/as adjunten con su trabajo un anexo con la lista de herramientas utilizadas y el contexto en el que fueron usadas. Justo lo que los artistas digitales hacen cuando escriben el tipo de herramienta y los pasos seguidos para obtener el resultado (al menos, algunos de ellos). Habría que añadir la fecha pues la IA generativa cambia los resultados a medida que va aprendiendo.

No se todavía cuál será mi postura final. Tampoco la de otros profesores con los que quizá deba coordinarme. Pero la cosa no acaba aquí. El foco del debate ha estado en usar o no la IA por los alumnos, pero igual puedo plantearme qué tipo de correcciones puedo darles si le digo a ChatGPT que corrija los trabajos individuales evaluando con los criterios de una rúbrica que mida el desempeño. Eso también debería quedar definido al principio del programa. En resumen: incorporar a la IA tiene varias aristas.

1 comentario en «Cómo hablarás de IA en tu syllabus»

  1. Esta otra forma de usar ChatGPT en el aula me ha parecido que tiene gran potencial educativo. La recogen en la web de métodos educativos alternativos al libro de texto, https://ditchthattextbook.com/. Se trata de que el alumno/a evalúe el resultado de ChatGPT: el estudiante escribe el «prompt» donde solicita al robot que haga un ensayo sobre un tema en concreto; el profesor/a da al estudiante una rúbrica para evaluar el ensayo; el estudiante aplica esa rúbrica sobre el trabajo realizado por el robot.
    Se puede aprender mucho evaluando el trabajo de los demás. El tema de los errores que mete el robot podría parecer un reto para aquellos que no son todavía expertos en un tema. Pero esto les obligaría a investigar en fuentes complementarias y terminar aprendiendo cosas.
    Más en https://ditchthattextbook.com/ai/#t-1671292150924

Deja un comentario