No es nuevo ni un secreto: la inteligencia artificial (IA) ha irrumpido en el ámbito educativo con herramientas como ChatGPT, capaz de generar respuestas complejas y textos muy detallados. Esta tecnología plantea preguntas críticas sobre el futuro de los métodos de evaluación y la integridad académica. Si los estudiantes pueden usarlo para completar tareas, ¿cómo deberían adaptarse las universidades para garantizar que las habilidades y conocimientos evaluados sean genuinos?
Un estudio reciente dirigido por Kevin A. Pimbblet y colaboradores, publicado en la Revista Europea de Físicaaborda este tema desde un enfoque práctico. Los investigadores evaluaron si ChatGPT, utilizando su versión GPT-4, sería capaz de aprobar las materias de una licenciatura completa en Física. Sus hallazgos exponen tanto las fortalezas como las limitaciones de esta IA y abren el debate sobre cómo debería evolucionar la educación superior en esta nueva era tecnológica.
Para responder a esta pregunta, los investigadores adoptaron un enfoque llamado “máxima trampa inteligente”diseñado para obtener el mejor rendimiento posible de la IA. Entre los pasos encontramos: simplificar preguntas, dividir tareas complejas en partes más pequeñas y mejorar las respuestas iniciales con instrucciones más claras. En este contexto, ChatGPT logró Resultados notables en tareas matemáticas y de programación.. Incluso obtuvo calificaciones sobresalientes en materias como “Modelado y simulación numérica”.
Sin embargo, ChatGPT demostró serias limitaciones en los módulos que requerían habilidades prácticascomo laboratorios de física. Estas actividades incluyen mediciones experimentales y análisis de datos, elementos que son imposibles de realizar para una IA. Asimismo, en el defensas oralesChatGPT fracasó al no replicar el razonamiento espontáneo y la interacción humana necesarios. Aquí nos encontramos con una limitación crucial: la dependencia de habilidades físicas y sociales, que siguen siendo exclusivas de los humanos.
En general, ChatGPT aprobó con éxito muchas de las evaluaciones escritas, logrando un promedio del 65%, equivalente a un título superior de segunda clase en el sistema británico. Sin embargo, su incapacidad para cumplir con los requisitos prácticos esenciales le impidió poder aprobar formalmente la carrera.
ChatGPT mostró un desempeño sobresaliente en problemas de cálculo y programación. En un módulo de electromagnetismo pudo resolver con éxito ejercicios como la implementación de la ecuación del diodo de Shockley en Python. Estas tareas, basadas en conceptos bien definidos y soluciones previamente documentadas, son su especialidad.
Por otro lado, su capacidad para generar explicaciones detalladas y claras lo convierte en un recurso valioso para el aprendizaje autodirigido. ChatGPT va más allá de proporcionar respuestas correctas, ya que es capaz de proporcionar los conceptos subyacentes.lo que puede ayudar a los estudiantes a comprender mejor los temas tratados.
También sucede que la IA lucha con problemas que requieren múltiples pasos o razonamiento profundo. En el módulo “Mecánica clásica”, por ejemplo, ChatGPT cometió errores en cálculos de varios pasos, como al determinar la aceleración gravitacional en la Estación Espacial Internacional. Estos errores ilustran que, aunque la IA puede realizar cálculos simples con precisión, su capacidad para integrar información en problemas más complejos sigue siendo limitada.
En tareas interdisciplinarias, que requieren combinar conocimientos de diferentes áreas, ChatGPT también muestra debilidades. Esto sugiere que, por el momento, Los humanos mantienen una ventaja en los problemas que involucran creatividad y pensamiento abstracto..
El uso de herramientas como ChatGPT plantea importantes cuestiones éticas. ¿Debería considerarse plagio el uso de IA para resolver exámenes o trabajos académicos? Según el estudio, detectar texto generado por IA es cada vez más complicado, especialmente con modelos avanzados como GPT-4. Esto representa un problema importante para las instituciones educativas que desean garantizar la integridad académica.
Al mismo tiempo, prohibir estas tecnologías podría resultar contraproducente. En lugar de evitar su uso, los expertos sugieren que las universidades deberían Enseñar a los estudiantes a utilizar la IA de forma ética y crítica.. El siguiente paso es aprobar la incorporación de herramientas de IA en las asignaturas, para que los estudiantes puedan utilizarlas para tareas específicas bajo supervisión.
Un ejemplo: en un proyecto de modelado numérico, ChatGPT podría generar el código inicialpero los estudiantes tendrían que ajustar y analizar los resultados manualmente. Este enfoque fomenta el desarrollo de habilidades técnicas y al mismo tiempo aprovecha las capacidades de la IA como herramienta de apoyo.
Una solución para mitigar el impacto de la IA en la evaluación es volver a los métodos tradicionales que requieren la presencia física del estudiante. Los exámenes supervisados, las presentaciones orales y las prácticas de laboratorio son formas efectivas de evaluar habilidades que la IA no puede replicar. Estas pruebas aseguran que los estudiantes realmente posean los conocimientos necesarios para superar los desafíos de la disciplina.
Por otra parte, también es posible integrar la IA en los procesos de enseñanza y evaluación. Por ejemplo, se pueden diseñar tareas que requieran el uso de ChatGPT para resolver problemas, pero que incluyan una reflexión crítica sobre las respuestas generadas. Este enfoque prepara a los estudiantes para utilizar estas herramientas en entornos laborales reales, donde la IA está cada vez más presente.
Los educadores deben equilibrar ambas estrategias, garantizando que los estudiantes adquieran habilidades fundamentales mientras aprenden a utilizar la IA de forma ética y eficaz.
Fuente Informativa