La relación entre internet y la inteligencia artificial fue desigual, pero funcional. La web producía contenido de forma constante y gratuita; la IA lo absorbía, lo procesaba y lo convertía en productos cada vez más sofisticados. Buscadores más inteligentes, asistentes conversacionales, sistemas de recomendación. El acuerdo implícito nunca se discutió demasiado. Hasta ahora.
Con la explosión de la IA generativa, ese equilibrio empezó a romperse gradualmente. El contenido ya no solo se indexa o se cita: se convierte en materia prima directa para entrenar modelos que generan valor económico a gran escala. Y en ese punto apareció una pregunta incómoda: ¿quién cobra por todo esto?
El raspado masivo que sostiene a la IA
Los grandes modelos de lenguaje no funcionan en el pleno vacío. Necesitan enormes volúmenes de texto, imágenes y datos para entrenarse, y buena parte de ese material proviene de la web abierta. Sitios de noticias, blogs especializados, foros, repositorios educativos. Todo entra en la misma trituradora.
Para los editores, este problema no es solo que su contenido se use, sino que el proceso es opaco. No siempre se sabe qué se recopila, con qué finalidad concreta ni cómo se transforma luego en productos comerciales. En muchos casos, la IA compite directamente con las fuentes originales, ofreciendo resúmenes o respuestas sin devolver tráfico ni ingresos.
El choque ya derivó en demandas judiciales y acuerdos privados, pero seguía faltando algo más básico: una forma clara, técnica y estandarizada de decir “esto sí” y “esto no”.
RSL 1.0: un intento de poner reglas donde no las había
Ahí entra en escena RSL 1.0 (Robots and Signals Language), un estándar abierto creado para que los editores puedan expresar, de manera legible por máquinas, cómo puede utilizarse su contenido en sistemas de inteligencia artificial.
La iniciativa surge del RSL Collective y su comité técnico, con participación de actores como Yahoo, Ziff Davis y O’Reilly Media, además de organizaciones vinculadas a estándares web. La idea no es bloquear internet, sino devolver capacidad de decisión a quienes generan el contenido.
En otras palabras: si la IA va a usar la web como combustible, al menos que exista una señal clara sobre las condiciones de ese uso.
De un “no pasar” genérico a reglas específicas para IA
Durantalgunas décadas, el archivo robots.txt fue la herramienta básica para controlar rastreadores. Permitía decir qué partes de un sitio podían ser indexadas por buscadores. Funcionó bien para la web clásica, pero quedó corto para la era de la IA.
RSL 1.0 amplía ese lenguaje. Introduce categorías como ai-input, pensada específicamente para el entrenamiento de modelos; ai-index, vinculada a la indexación tradicional; y ai-all, que permite bloquear cualquier uso relacionado con inteligencia artificial.
La diferencia es bastante clave: por primera vez, un editor puede intentar limitar el entrenamiento de IA sin desaparecer de los resultados de búsqueda.
El problema que nadie había querido resolver
Hasta ahora, evitar que el contenido se usara para entrenar modelos implicaba un coste alto: perder visibilidad en buscadores. Google, por ejemplo, no ofrece una separación clara entre indexación y uso para IA.
Los impulsores de RSL 1.0 lo dicen sin rodeos: el estándar cubre una carencia estructural de la web actual. Permite distinguir usos que antes estaban mezclados por conveniencia técnica, pero no por justicia económica.
No es una solución perfecta, pero sí un cambio de lógica que es bastante necesario.
Cobrar por entrenar: la idea más disruptiva del estándar
Uno de los elementos más interesantes de RSL 1.0 es su modelo de “contribución”. No se limita a permitir o bloquear, sino que abre la puerta a exigir aportes cuando el contenido se utiliza para entrenar IA.
El desarrollo se realizó junto a Creative Commons y apunta a proteger la sostenibilidad del digital commons, ese enorme conjunto de recursos abiertos que sostiene gran parte del conocimiento online. Su directora ejecutiva, Anna Tumadóttir, lo resume con claridad: sin mecanismos de reparto justo, el sistema deja de ser sostenible.
No todo el contenido quiere —o puede— entrar en licencias comerciales clásicas. RSL intenta cubrir ese vacío.
Mucho apoyo, pero una incógnita clave
Más de 1.500 medios y plataformas ya respaldan RSL 1.0. También lo hacen proveedores de infraestructura como Cloudflare, Akamai y Fastly, cuyo rol es crucial: son ellos quienes pueden aplicar estas reglas a nivel técnico.
Aun así, el estándar tiene un límite evidente. Depende de que las empresas de IA decidan respetarlo. No impide técnicamente que alguien ignore las señales y siga recopilando contenido. Y deja abierta una duda importante: ¿qué margen real tendrán los editores pequeños frente a gigantes tecnológicos?
Un primer freno en una carrera desbocada
La inteligencia artificial avanzó más rápido que las reglas que la rodean. Durante años, internet fue un recurso implícitamente gratuito para entrenarla. RSL 1.0 no cambia de golpe esa realidad, pero introduce algo que faltaba: fricción.
Por primera vez, el uso del contenido deja de ser invisible y automático. Y aunque todavía no sepamos si las grandes compañías aceptarán pagar el precio, el mensaje es claro: la web ya no quiere seguir alimentando gratis a la IA sin decir nada a cambio.


