El software de código abierto ha sido, durante décadas, uno de los pilares invisibles de internet. Desde sistemas operativos hasta servidores web, su lógica siempre fue la misma: abrir el código acelera la innovación. Con la inteligencia artificial, esa filosofía no ha cambiado. Pero su escala sí.
Un nuevo estudio advierte que miles de modelos de IA open source están accesibles públicamente en internet, sin restricciones, filtros ni supervisión. No se trata de grandes plataformas ni de empresas tecnológicas, sino de una red dispersa de sistemas que ejecutan modelos potentes y responden a peticiones externas como si fueran servicios abiertos.
Una infraestructura que casi nadie ve
El análisis, realizado a lo largo de casi diez meses por equipos como SentinelLABS y Censys, dibuja un mapa inquietante: más de 175.000 hosts detectados en 130 países, muchos de ellos ejecutando modelos de lenguaje accesibles desde fuera.
No es solo una cuestión de volumen. Los investigadores identificaron un núcleo estable de unos 23.000 sistemas que reaparecen de forma constante, lo que sugiere una infraestructura persistente, no errores puntuales de configuración.
Ollama: cuando lo local deja de ser privado
Uno de los nombres que más se repite en el estudio es Ollama, una herramienta popular para ejecutar modelos de IA en local. Su atractivo es evidente: facilidad de uso, modelos potentes y control total del sistema.
El problema surge cuando ese “local” se conecta a internet sin protección. Censys detectó miles de instancias de Ollama expuestas públicamente, algunas de las cuales respondían directamente a prompts. Es decir, cualquiera podía interactuar con ellas.
Por qué esto importa (y no poco)
Un modelo abierto y sin guardarraíles no distingue intenciones. Puede generar texto benigno… o facilitar phishing, spam, campañas de desinformación o ingeniería social en segundos. Y lo hace sin costes de suscripción, sin registros y sin trazabilidad clara.
Los investigadores subrayan que el riesgo no es teórico. En su análisis de system prompts, alrededor del 7,5 % empujaba a comportamientos dañinos, ya sea por diseño, por negligencia o porque alguien eliminó deliberadamente las restricciones originales del modelo.
El coste del abuso se desploma
Aquí está el punto clave: la IA open source reduce drásticamente el coste de los abusos automatizados. Donde antes hacía falta infraestructura propia o servicios caros, ahora basta con encontrar un modelo mal configurado y enviarle peticiones.
No es que estos modelos sean más peligrosos que los comerciales. Es que carecen de los frenos que las grandes plataformas sí imponen, para bien o para mal.
No es una cruzada contra el open source

Los propios investigadores son claros: la solución no pasa por prohibir los modelos de código abierto. Sería inviable y contraproducente. El problema no es la apertura del código, sino la falta de conciencia sobre lo que implica poner un modelo potente en red sin control.
Un proyecto open source puede ser reutilizado, modificado y reorientado. Eso es parte de su esencia. Pero también significa que no todos los usuarios tendrán buenas intenciones.
Una nueva superficie de riesgo
Lo que este estudio pone sobre la mesa es una realidad incómoda: la inteligencia artificial ya no vive solo en grandes centros de datos. Vive en servidores domésticos, en VPS baratos, en equipos olvidados que siguen funcionando.
Y mientras la atención pública se centra en lo que hacen OpenAI, Google o Anthropic, una capa entera de IA abierta opera en segundo plano, sin vigilancia ni debate.
No es un enemigo visible. Pero es un recordatorio claro de que, en la era de la IA, abrir algo al mundo ya no es un gesto inocente. Es una decisión con consecuencias técnicas, sociales y éticas que apenas empezamos a entender.

