Ninguno de los grandes laboratorios de IA son tus amigos, así que no te alegres demasiado, pero el Pentágono, según una nota de fuente anónima en Axios, amenaza con dejar de usar las herramientas de IA de Anthropic por la “insistencia en mantener límites sobre el uso de sus modelos por parte de las fuerzas armadas”.
La fuente del Pentágono que habló con Axios dijo aparentemente que de todas las compañías de IA con las que tratan, Anthropic es la más “ideológica”.
Recuerda que Anthropic creó Claude y Claude Code, que se inició un patrón inquietante cuando se lanzó un cambio en sus sistemas de vibe-coding, y que Wall Street obedientemente vende acciones de todo tipo de negocios que intenten reemplazarla. Se trata de una compañía que, claramente, busca conquistar el mundo así que no sería buena idea consolarse con todas esas historias de la gente que trabaja allí y supuestamente no se siente cómoda con eso de conquistar el mundo.
¿Será en represalia?
El año pasado Anthropic hizo público su entusiasmo al haber ganado el contrato de US$200 millones del Pentágono, diciendo que era “un nuevo capítulo en el compromiso de Anthropic con la seguridad nacional de EE.UU.”.
Con todo, hay algo interesante en la nota de Axion: las dos áreas de conflicto que cita el representante de Anthropic son “los límites en cuanto a las armas totalmente autónomas”, y la “vigilancia en masa dentro del país”. Son dos áreas de preocupación que mencionó el fundador y CEO Darío Amodei en el interesante podcast de Ross Douthat en el Times, que publicó el New York Times hace tres días.
Parte de eso aparece también en lo que Amodei escribió el mes pasado en “La adolescencia de la Tecnología”.
Pero Amodei sugirió también que cualquier presidente, y no sólo Donald Trump, podría entregarle demasiado poder a la tecnología de defensa de la IA y por eso dice que le preocupan “los enjambres de drones autónomos, y señala que “las protecciones constitucionales de nuestras estructuras militares dependen de la idea de que hay humanos que desobedecerían órdenes ilegales, pero con las armas autónomas, esas protecciones desaparecen”.
Y no fue lo único…
Amodei también habló de lo que podría suceder si se abusa de la vigilancia con IA dentro del país:
“No es ilegal poner cámaras en todas partes en el espacio público y grabar todas las conversaciones. Porque si es un espacio público no tienes derecho a la privacidad allí. Sin embargo, hoy el gobierno no podría registrarlo todo y hallarse sentido, pero con la IA, al transcribir lo conversado y revisarlo y correlacionarlo todo, sí podrías concluir que tal o cual persona es contraria al gobierno”.
Asios dice que perder a Claude sería algo importante. El funcionario de Defensa que filtró la información a Axios dijo que “hay otras compañías que están por detrás de Claude”.
La nota de Axios no define precisamente dónde está el punto de discordia pero afirma que el Pentágono afirma que Anthropic buscó información de Palantir sobre si su tecnología formaba parte del ataque de EE.UU. contra Venezuela el 3 de enero. Anthropic niega haberse preocupado “en relación a operaciones actuales”. Pero el funcionario del Pentágono afirma que se expresó preocupación implicando que podrían no aprobar que se usara su software porque es obvio que hubo disparos contra personas”.
Además, tampoco queda en claro cómo podría incorporarse al mundo real algo como Claude Code para dispararle a personas, ya que permite que cualquiera pueda crear software si lo desea.
Este artículo ha sido traducido de Gizmodo US por Romina Fabbretti. Aquí podrás encontrar la versión original.


