El inteligencia artificial (IA) ha avanzado vertiginosamente en los últimos años, transformando diversos sectores como la medicina, la educación, el transporte y muchos más. Sin embargo, a pesar de sus impresionantes capacidades, la IA se enfrenta a una serie de dificultades. limitaciones intrínsecas que desafían nuestras expectativas sobre su potencial y uso.
Uno de ellos son los alucinaciones de chatbotses decir, respuestas incorrectas o inventadas mediante modelos de lenguaje de inteligencia artificial. A pesar de los avances tecnológicos, expertos en la materia aseguran que estas alucinaciones son inevitables. Sin embargo, se han convertido en un tema de creciente preocupación.
El año pasado, un caso en Nueva York llamó la atención sobre los peligros de confiar ciegamente en la IA. Un juez federal multó a un bufete de abogados con miles de dólares después de que uno de sus abogados utilizara ChatGPT para redactar un escrito legal.
Y el documento estaba plagado de falsedades, incluidos más de seis casos legales completamente inventados. Este incidente pone de relieve un problema fundamental: los chatbots pueden generar información incorrecta con una seguridad que puede engañar incluso a los profesionales más experimentados. Pero ¿Por qué ocurren estos errores garrafales?
Alucinaciones en modelos del lenguaje como GPT-4 se deben a su diseño intrínseco. Es importante señalar que estos modelos están entrenados para predecir una serie de palabras en una secuencia de texto, basándose en patrones aprendidos de grandes cantidades de datos. Sin embargo, no tienen un entendimiento mundo real.
Esto significa que pueden producir respuestas que parecen plausibles pero que pueden ser completamente erróneas. Por ello, en los mismos chats de GPTde OpenAI Puedes leer la siguiente leyenda: “ChatGPT puede cometer errores. Considere verificar información importante”. Por su parte, Copilotoel complemento de IA de Microsoftadvierte: “Copilot usa IA. Verificar errores”.
En este sentido, las investigaciones de la Universidad Stanford y el Universidad de Yale han demostrado que estos errores son comunes en los resultados generados por IA en contextos legales. Estos modelos, a pesar de su sofisticación, a menudo no pueden distinguir entre realidad y ficción al generar texto. Según los investigadores, el problema reside en cómo hemos decidido utilizar estos modelos y en las expectativas que tenemos sobre sus capacidades.
Las empresas de tecnología han promocionado sus modelos de lenguaje como herramientas versátiles capaces de resolver una variedad de problemas, desde ofrecer asesoramiento médico hasta brindar recomendaciones financieras.
Sin embargo, estas expectativas han llevado a que la IA se utilice en contextos donde la precisión es crucial, lo que ha revelado sus limitaciones. Los chatbots han ofrecido Consejos médicos incorrectos, artículos de prensa con información inexacta o citas falsas en motores de búsqueda..
Subbarao Kambhampatiprofesor de informática en la Universidad Estatal de Arizona (EE.UU.)enfatiza que los modelos de lenguaje fueron diseñados para generar texto, no para ser puramente precisos. “No hay forma de garantizar la veracidad. de lo que se genera”, explica. Por lo tanto, sugiere que deberíamos Reconsiderar cómo y dónde utilizamos estas herramientas..
Un estudio reciente de la Universidad Nacional de Singapur ha proporcionado pruebas teóricas de que Las alucinaciones son inevitables en estos modelos de lenguaje.. Aplicando resultados clásicos de la teoría del aprendizaje, los investigadores demostraron que siempre habrá problemas que estos modelos no pueden resolver correctamente, lo que lleva a la generación de respuestas incorrectas.
Según los expertos, las alucinaciones también son producto de la estructura fundamental de estos modelos. Deseo tipo Haqqaniprofesor de informática en Universidad de Illinois (Estados Unidos)compara modelos de lenguaje con herramientas avanzadas de autocompletado. Están diseñados para generar una respuesta a cualquier pregunta, incluso si no cuentan con la información necesaria, lo que aumenta la probabilidad de errores.
Por ello, para mitigar las alucinaciones, los expertos sugieren varios enfoques. uno es integrar sistemas de verificación de hechos que trabajan junto con modelos de lenguaje para monitorear y corregir las respuestas antes de que lleguen a los usuarios.
Amr Awadallahcofundador y director ejecutivo de la plataforma de inteligencia artificial vectaraestá desarrollando un detector de alucinaciones como primer paso para corregir estos fallos. Su equipo también está trabajando en un chatbot híbrido llamado PreguntarNoticiasque combina un modelo de lenguaje con un motor de búsqueda para brindar respuestas basadas en fuentes verificadas.
Otra propuesta es desarrollar modelos especializados que utilicen información de fuentes confiablescomo documentos corporativos, reseñas de productos verificadas o literatura médica. Algunos científicos ya están investigando sistemas que combinan modelos lingüísticos con estas fuentes de información para mejorar la precisión.
Entonces, en lugar de verlos como solucionadores de problemas independientes e infalibles, los expertos abogan por integrarlos en sistemas supervisados que puedan verificar y corregir sus resultados. Y si bien los chatbots seguirán siendo poderosos generadores de ideas y herramientas creativas, naturalmente no pueden reemplazar la supervisión humana.
Por ello, entienden que es importante desarrollar fórmulas que combinen la creatividad de la IA con la verificación de hechos, garantizando que estas herramientas se utilicen de forma segura y eficaz.
Referencias:
Fuente Informativa