La tecnología que subyace a la mayoría de los modelos de inteligencia artificial que están disponibles hoy es la de los grandes modelos de lenguaje (LLM, en inglés), una forma de aprendizaje automático y procesamiento del lenguaje. La apuesta de la mayoría de las compañías de IA es lograr que los LLM, si se les ingresan datos suficientes, logren algo así como plena autonomía para pensar y funcionar de manera similar a la de los humanos, pero con conocimiento más colectivo. Pero resulta que apostar al crecimiento infinito tal vez no sea lo mejor. Porque un nuevo estudio afirma tener prueba matemática de que “los grandes modelos de lenguaje son incapaces de cumplir tareas de agente y computación más allá de determinada complejidad”.
El trabajo de los investigadores Vishal y Varin Sikka – padre e hijo – se dio a conocer hace poco en Wired tras ser publicado inicialmente sin gran publicidad. Su conclusión es simple, aunque para llegar a ella las matemáticas son un tanto complicadas. En términos más o menos sencillos, presenta la lógica de que hay tareas o comandos que se dan a un LLM que requieren computación más compleja de la que puede procesar el modelo. Y que cuando sucede eso, el modelo fallará, ya sea no completando la tarea o respondiendo con errores.
La premisa básica de este estudio echa agua fría sobre la idea de que la IA, los modelos que pueden cumplir tareas de múltiples pasos de manera autónoma y sin supervisión humana, será el vehículo para llegar a la inteligencia artificial general. Eso no implica que la tecnología no tenga su función, o que no pueda mejorar, pero el techo de lo posible es mucho más bajo de lo que les gusta admitir a las compañías de IA cuando dicen que “el cielo es el límite”.
Los Sikka no son los primeros investigadores en sugerir que los grandes modelos de lenguaje no son tan geniales como se dice, aunque su estudio presenta los cálculos matemáticos que lo explican y dan la razón a los muchos escépticos respecto de la IA. El año pasado los investigadores de Apple publicaron un trabajo cuya conclusión es que los LLM no son capaces de razonar o pensar aunque parezcan hacerlo. Benjami Riley, fundador de la compañía Cognitive Resonance, escribió el año pasado que por el modo en que funcionan los LLM jamás podrán lograr de veras lo que consideramos como “inteligencia”. Otros estudios han puesto a prueba las limitaciones de los modelos de IA de LLM para ver si son capaces de producir resultados nuevos y creativos, y lo que hallaron no es prometedor.
Con todo, si nada de esto te convence y las ecuaciones matemáticas complejas son lo tuyo, el estudio de los Sikka tal vez sea la evidencia que necesitas. Todo forma parte de una cantidad cada vez mayor de evidencia que apunta a que aunque la IA es capaz de muchas cosas hoy, por cierto, no será la tecnología que supere a la inteligencia humana hacia finales de este año, como afirmó hace poco Elon Musk.
Este artículo ha sido traducido de Gizmodo US por Romina Fabbretti. Aquí podrás encontrar la versión original.




