.

STEPHANIE ARNETT/MITTR | GETTY, UNSPLASH

Inteligencia Artificial

La vuelta al cole con ChatGPT: ¿ignorar, permitir o integrar?

1

Por qué Yale nunca se planteó prohibir la tecnología

  • por Tate Ryan-Mosley | traducido por
  • 07 Septiembre, 2023

Para muchas personas, el inicio de septiembre marca el verdadero comienzo del año. No hay fuegos artificiales ni propósitos, pero sí cuadernos nuevos, zapatillas sin estrenar y coches llenos. Tal vez esté de acuerdo en que la vuelta al cole todavía parece el comienzo una nueva etapa, aunque usted, como yo, ya haya superado con creces su época universitaria.

Este año, la gran novedad parece ser la misma que definió el final del curso pasado: ChatGPT y otros grandes modelos lingüísticos. El invierno y la primavera pasadas se publicaron muchos titulares sobre la IA en las aulas y algunas escuelas, presas del pánico, incluso llegaron a prohibir ChatGPT. Mi colega Will Douglas Heaven escribió que no era el momento de entrar en pánico. Argumentó que la IA generativa va a cambiar la educación, pero no a destruirla. Ahora que los meses de verano nos han dado algo de tiempo para reflexionar, parece que algunas escuelas están reconsiderando su enfoque.

Para conocer cómo abordan ahora la tecnología en el aula las instituciones de enseñanza superior, conversé con Jenny Frederick. Frederick es vicerrectora de la Universidad de Yale (Connecticut) y directora fundadora del Centro Poorvu para la Enseñanza y el Aprendizaje, que ofrece recursos a profesores y estudiantes. También ha ayudado a dirigir el enfoque de Yale sobre ChatGPT.

En nuestra charla, Frederick explicó que Yale nunca se planteó prohibir ChatGPT y, en cambio, quiere trabajar junto a él. A continuación, algunos de los puntos clave y las partes más interesantes de nuestra conversación, que ha sido editada para mayor brevedad y claridad.

La IA generativa es una novedad, pero no lo es pedir a los estudiantes que aprendan lo que las máquinas pueden hacer.

Por lo que respecta a la enseñanza, es muy importante plantearse de nuevo: ¿Qué quiero que aprendan mis alumnos durante este curso?

Si un robot pudiera hacerlo, ¿tengo que replantearme lo que estoy pidiendo a mis alumnos que aprendan, o subir el listón de por qué es importante saber esto? ¿Cómo hablamos a nuestros alumnos de lo que significa estructurar un párrafo, por ejemplo, o hacer tu propia investigación? ¿Qué ganan [los alumnos] con esa labor? Todos aprendemos a dividir llevando, aunque las calculadoras puedan hacerlo. ¿Cuál es el propósito de eso?

Tengo una junta asesora de maestros para el Centro Poorvu, y tenemos un profesor de cálculo en el grupo que se rio y dijo: "Para mí es divertido veros a todos lidiar con esto porque los matemáticos hemos tenido que lidiar con el hecho de que las máquinas podrían hacer nuestro trabajo. Esto es posible desde hace bastante tiempo, décadas".

Así que tenemos que pensar en justificar el aprendizaje que pedimos a los estudiantes cuando existe una máquina que pueda hacerlo.

Es demasiado pronto para establecer políticas preceptivas sobre el uso que los estudiantes pueden hacer de la tecnología.

Nunca, en ningún momento, Yale pensó en prohibirla. Hemos considerado cómo podemos fomentar un entorno de aprendizaje y experimentación en nuestro papel como universidad. Se trata de una nueva tecnología, pero no solo es un cambio técnico. Nuestra sociedad se encuentra en un momento donde está poniendo a prueba nuestra concepción sobre el ser humano, el conocimiento, el aprendizaje y lo que significan.

Por tanto, reuní a mis colaboradores y les dije: "Miren, necesitamos orientación". No tenemos las respuestas, pero necesitamos disponer de un conjunto de recursos curados que el profesorado pueda consultar. No tenemos una política que diga que hay que usar esto, no hay que usar esto otro, o si este es el marco para utilizarlo. Asegúrate de que tus estudiantes tienen una idea de la relevancia de la IA para el curso, cómo podrían utilizarla o cómo no hacerlo. 

Utilizar ChatGPT para hacer trampas es menos preocupante que lo que llevó a hacerlas.

Cuando pensamos en qué lleva a un estudiante a hacer trampas, nadie quiere engañarse. Están pagando mucho dinero por su educación. Pero lo que sucede es que los estudiantes se quedan sin tiempo, sobreestiman sus capacidades, se sienten abrumados, y eso es algo muy difícil. Al verse acorralados, entonces toman la desafortunada decisión.

Así que me preocupan más las cosas que contribuyen a ese estado de salud mental y de gestión del tiempo. ¿Cómo ayudamos a nuestros estudiantes a no meterse en problemas que les impidan hacer lo que vinieron a hacer?

Así que ChatGPT proporciona otra manera para que los estudiantes hagan trampa, pero el camino para que lleguen allí sigue siendo el mismo camino. Así que trabajemos en cambiar ese camino.

Los estudiantes podrían poner en peligro su intimidad.

A los profesores le preocupa -con razón- que sus alumnos introduzcan información en un sistema. Cada vez que se utiliza [ChatGPT o uno de sus competidores], se está mejorando. Nos planteamos cuestiones éticas a la hora de proporcionar mano de obra a OpenAI, o a la empresa que sea. No sabemos cómo funcionan las cosas y cómo se guardan, gestionan, controlan o vigilan las entradas a lo largo del tiempo, por no sonar conspiranoica. Si se va a pedir a los estudiantes que hagan esto, somos responsables de la seguridad y la privacidad de nuestros estudiantes. Las políticas de gestión de datos de Yale son estrictas por buenas razones.

Los profesores deben buscar orientación en sus alumnos.

En general, los estudiantes van muy por delante del profesorado. Ya que han crecido en un mundo donde las nuevas tecnologías van y vienen, y lo prueban todo. Por supuesto, ChatGPT es la última novedad, así que lo utilizan. Y quieren hacerlo de forma responsable. Se preguntan: "¿Qué está permitido? Mira todo lo que puedo hacer. ¿Puedo hacer esto?".

Así que el consejo que di a los profesores fue que debían probarlo. Al menos, tienen que estar al tanto de lo que pueden hacer sus alumnos, y pensar en las tareas y todo lo que permite esta herramienta. ¿Qué políticas u orientaciones darán a los estudiantes sobre el uso permitido? ¿De qué manera les permitirán utilizarla?

No tiene por qué decidirse unilateralmente, se puede mantener una conversación con los alumnos. Es decir, co-crear,¿por qué no aprovechar la experiencia en un aula?

Si eres educador, debes darte cuenta de que el mundo ahora tiene IA. Así que hay que preparar a los estudiantes para un mundo donde la IA se integrará en las industrias de diferentes maneras. Debemos preparar a los estudiantes.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Sam Altman vaticina una IA que resuelva tareas del mundo real por nosotros

    El CEO de Open AI afirma que no necesitaremos nuevo hardware ni muchos más datos de entrenamiento para conseguirlo.

    Sam Altman, CEO de OpenAI
  2. El polígrafo de la IA: esta herramienta ayuda a detectar patrañas en chatbots

    En muchas situaciones de alto riesgo, no merece la pena arriesgarse con grandes modelos lingüísticos. Saber qué resultados hay que desechar puede arreglarlo. 

    Un toro mirando al frente con una máquina de polígrafo alrededor del cuello. Detrás, espirales de texto superpuestas.
  3. La ley de la IA de la UE en cuatro claves

    El trabajo duro empieza ahora.

    Un candado azul con las estrellas amarillas de la UE de fondo