El Pentágono pacta con 7 empresas tecnológicas para usar su IA en sistemas clasificados

El Pentágono informó que ha alcanzado acuerdos con siete empresas tecnológicas para usar su inteligencia artificial en sus redes informáticas clasificadas, lo que permitirá a las fuerzas armadas aprovechar capacidades impulsadas por IA para ayudarle a librar guerras.
Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection y SpaceX aportarán sus recursos para ayudar a “aumentar la toma de decisiones de los combatientes en entornos operativos complejos”, indicó el Departamento de Defensa.
Llama la atención la ausencia en la lista de la empresa Anthropic, tras su disputa pública y batalla legal con el gobierno de Trump por la ética y la seguridad del uso de la IA en la guerra.
El Departamento de Defensa ha acelerado rápidamente su uso de la IA en los últimos años. La tecnología puede ayudar a las fuerzas armadas a reducir el tiempo que tardan en identificar y atacar objetivos en el campo de batalla, además de contribuir a la organización del mantenimiento de armas y las líneas de suministro, según un informe de marzo del Brennan Center for Justice.
Pero la IA ya ha suscitado preocupaciones de que su uso podría invadir la privacidad de los estadounidenses o permitir que las máquinas elijan objetivos en el campo de batalla. Una de las empresas que contratan con el Pentágono señaló que su acuerdo exigía supervisión humana en determinadas situaciones.
Las inquietudes sobre el uso militar de la IA surgieron durante la guerra de Israel contra milicianos en Gaza y Líbano, cuando gigantes tecnológicos de Estados Unidos reforzaron discretamente la capacidad de Israel para rastrear objetivos. Pero el número de civiles muertos también se disparó, lo que alimentó temores de que estas herramientas contribuyeran a la muerte de personas inocentes.
Preguntas sobre el uso militar de la IA que aún se están resolviendo
Los contratos más recientes del Pentágono llegan en un momento de ansiedad por el potencial de una dependencia excesiva de la tecnología en el campo de batalla, afirmó Helen Toner, directora general interina del Center for Security and Emerging Technology de la Universidad de Georgetown.
“Gran parte de la guerra moderna se basa en personas sentadas en centros de mando detrás de monitores, tomando decisiones complicadas sobre situaciones confusas y que cambian rápidamente”, explica Toner, exmiembro del consejo de OpenAI. “Los sistemas de IA pueden ser útiles para resumir información o revisar transmisiones de vigilancia e intentar identificar posibles objetivos”.
Pero, añadió, todavía se están definiendo cuestiones sobre los niveles adecuados de participación humana, el riesgo y la capacitación.
“¿Cómo se despliegan estas herramientas rápidamente para que sean eficaces y aporten una ventaja estratégica, y al mismo tiempo se reconoce que hay que entrenar a los operadores y asegurarse de que sepan usarlas y no confíen demasiado en ellas?”, preguntó Toner.
Anthropic planteó preocupaciones de ese tipo. La empresa tecnológica indicó que quería garantías en su contrato de que las fuerzas armadas no usarían su tecnología en armas totalmente autónomas ni en la vigilancia de estadounidenses. El secretario de Defensa, Pete Hegseth, sostuvo que la empresa debía permitir cualquier uso que el Pentágono considerara legal.
Anthropic demandó después de que el presidente Donald Trump, republicano, intentó impedir que todas las agencias federales usaran el chatbot Claude de la empresa y de que Hegseth buscara etiquetar a la compañía como un riesgo para la cadena de suministro, una designación destinada a proteger contra el sabotaje de sistemas de seguridad nacional por adversarios extranjeros.
OpenAI había anunciado un acuerdo con el Pentágono en marzo para, en la práctica, reemplazar a Anthropic por ChatGPT en entornos clasificados. OpenAI confirmó en un comunicado el viernes que se trataba del mismo acuerdo que anunció a inicios de marzo.
La empresa manifestó: “Como dijimos cuando anunciamos por primera vez nuestro acuerdo hace varios meses, creemos que las personas que defienden a Estados Unidos deberían tener las mejores herramientas del mundo”.
El acuerdo de una de las empresas con el Pentágono incluía un texto que señalaba que debía haber supervisión humana en cualquier misión en la que los sistemas de IA actúen de forma autónoma o semiautónoma, según una persona familiarizada con el acuerdo que no estaba autorizada a hablar públicamente al respecto. El texto también indicaba que las herramientas de IA deben usarse de maneras coherentes con los derechos constitucionales y las libertades civiles.
Esos puntos se parecen a los aspectos que trabaron el acuerdo con Anthropic, aunque OpenAI ya había dicho anteriormente que obtuvo garantías similares cuando cerró su propio trato con el Pentágono.
El punto de vista del Pentágono
Emil Michael, director de tecnología del Pentágono, declaró a CNBC que habría sido irresponsable depender de una sola empresa, un reconocimiento de la fricción con Anthropic.
Michael comentó que “cuando supimos que un socio en realidad no quería trabajar con nosotros de la manera en que queríamos trabajar con ellos, salimos y nos aseguramos de tener múltiples proveedores”.
Algunas de las empresas, incluidas Amazon y Microsoft, llevan mucho tiempo trabajando con las fuerzas armadas en entornos clasificados, y no estaba claro de inmediato si los nuevos acuerdos modificaban de forma significativa sus alianzas con el gobierno. Otras, como el fabricante de chips Nvidia y la startup Reflection, son nuevas en este tipo de trabajo. Ambas compañías crean modelos de IA de código abierto, que Michael ha descrito como una prioridad para ofrecer una “alternativa estadounidense” al rápido desarrollo de sistemas de IA por parte de China, en los que algunos componentes clave son accesibles públicamente para que otros construyan sobre ellos.
El Pentágono informó que el personal militar ya está utilizando sus capacidades de IA a través de su plataforma oficial, GenAI.mil.
“El personal combatiente, los civiles y los contratistas están poniendo estas capacidades en uso práctico ahora mismo, reduciendo muchas tareas de meses a días”, señaló el Pentágono, y añadió que las crecientes capacidades de IA de las fuerzas armadas “darán a los combatientes las herramientas que necesitan para actuar con confianza y salvaguardar a la nación frente a cualquier amenaza”.
En muchos casos, las fuerzas armadas usan la inteligencia artificial del mismo modo que los civiles: para asumir tareas rutinarias que a los humanos les llevarían horas o días completar, explicó Toner, de la Universidad de Georgetown.
La IA puede utilizarse para predecir mejor cuándo un helicóptero necesita mantenimiento o para determinar cómo mover de manera eficiente grandes cantidades de tropas y equipo, indicó. También puede ayudar a determinar si los vehículos que aparecen en las transmisiones de vigilancia de un dron son civiles o militares.
Pero la gente no debería volverse excesivamente dependiente de ella.
“Hay un fenómeno llamado sesgo de automatización, en el que las personas pueden tender a asumir que las máquinas funcionan mejor de lo que realmente lo hacen”, advirtió Toner.
______
O’Brien informó desde Providence, Rhode Island.
______
Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.






Bookmark popover
Removed from bookmarks