¿Pueden las máquinas escribir ecuaciones sobre ovejas eléctricas?
El mundo de la Inteligencia Artificial se ha puesto de moda con el vertiginoso salto que ha supuesto la salida del software ChatGPT, una herramienta que llega de forma sorpresiva para la mayoría del público, pero que no es más que otro paso más de esta rama de la tecnología que ha dado pasos de gigantes en cuestiones como reconocimiento de formas, problemas de optimización o de clasificación.
ChatGPT es capaz de componer textos coherentes según nuestras instrucciones (promts): desde códigos de programación a respuestas en nuestro lenguaje de cualquier cuestión. Puede escribir cuentos, puede inventar ecuaciones, y puede resolverlas. Ante semejante potencial ¿Debemos intentar ocultar la existencia de este programa a nuestros alumnos? ¿O es mejor explicarles cómo funciona y que intenten sacar el mayor partido posible?
Optamos por la segunda. Es más, ya hay muchos chicos que usan ChatGPT. Algunos para intentar hacer trampas, por supuesto. Pero tienen que aprender que no pueden delegar en la máquina si no son capaces de hacerlo por ellos mismos. Porque ChatGPT necesita ser guiado por nuestras instrucciones o prompts.
La idea de esta situación de aprendizaje es la siguiente: Los libros de matemáticas están repletos de problemas donde siempre suceden cosas, pero sólo nos centramos en los números. Luis lleva una docena de huevos y se le caen 2. Todos aprendemos que le quedan 10, pero nadie se preocupa por Luis ¿quién es? ¿por qué fue a por huevos? ¿Cómo se le cayeron?
Entonces, ¿Por qué no pedirle a la máquina que invente un cuento sobre algún personaje susceptible de pertenecer a una colección de problemas? Y luego, pedirle que invente un problema cuya resolución sea, en este caso, una ecuación de primer o segundo grado cuya solución sean números enteros. Con todas estas historias generadas, y sus problemas, editaremos una pequeña recopilación de cuentos, y resolveremos nosotros mismos las ecuaciones que ha ideado la máquina.