Stay up to date with notifications from The Independent

Notifications can be managed in browser preferences.

Claude consigue un récord de registros mientras EE. UU. califica a Anthropic como riesgo para la cadena de suministro

Más de un millón de personas al día se registran en el rival de ChatGPT

La aplicación Claude AI en la tienda de aplicaciones de un teléfono el 16 de febrero de 2026 en Nueva York
La aplicación Claude AI en la tienda de aplicaciones de un teléfono el 16 de febrero de 2026 en Nueva York (Michael M. Santiago/Getty Images)
Read in English

Anthropic registró un número récord de descargas de su chatbot Claude AI desde que la empresa se negó a que su producto fuera utilizado por el Departamento de Defensa de Estados Unidos para fabricar armas autónomas.

Mike Krieger, jefe de producto de Anthropic, reveló que más de un millón de personas se registran cada día en Claude, lo que llevó a la aplicación a lo más alto de la App Store de Apple y de las listas de Google Play.

La aplicación superó a ChatGPT, de OpenAI, que se enfrentó a la reacción de algunos usuarios después de que su director ejecutivo, Sam Altman, llegó a un acuerdo con el gobierno estadounidense tras el desencuentro entre Anthropic y el Pentágono.

La disputa gira en torno a las barreras de seguridad que impedirían el uso de la IA de Anthropic para la vigilancia doméstica y las armas autónomas.

El secretario de Defensa, Pete Hegseth, calificó estas restricciones de “caprichos ideológicos”, mientras que el presidente Donald Trump afirmó que Anthropic estaba dirigido por “locos de izquierdas” que amenazaban la seguridad nacional de Estados Unidos.

El miércoles, el Departamento de Defensa informó oficialmente a Anthropic de que sus productos se consideran un riesgo para la cadena de suministro, “con efecto inmediato”.

Es la primera vez que la designación se aplica a una empresa nacional, ya que antes se reservaba a empresas extranjeras vinculadas a adversarios.

“Desde el principio, se trató de un principio fundamental: que los militares puedan utilizar la tecnología para todos los fines legales”, dijo el Pentágono en un comunicado, compartido en primer lugar por Politico.

“Las Fuerzas Armadas no permitirán que un proveedor se inserte en la cadena de mando restringiendo el uso legal de una capacidad crítica y ponga en peligro a nuestros combatientes”.

La designación impide a todas las agencias federales y contratistas gubernamentales utilizar el chatbot Claude mientras trabajen para el ejército de EE. UU.

Anthropic aclaró que la medida es ilegal y dijo que combatirá la etiqueta de riesgo para la cadena de suministro en los tribunales.

“No creemos, y nunca lo hemos creído, que sea función de Anthropic ni de ninguna empresa privada participar en la toma de decisiones operativas: esa es la función de los militares”, declaró Dario Amodei, director ejecutivo de Anthropic.

“Estamos muy orgullosos del trabajo que realizamos junto con el Departamento, apoyando a los combatientes de primera línea con aplicaciones como análisis de inteligencia, modelización y simulación, planificación operativa, operaciones cibernéticas y mucho más”.

Traducción de Olivia Gorsin

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in