Stay up to date with notifications from The Independent

Notifications can be managed in browser preferences.

Renuncia la responsable de robótica de OpenAI tras el acuerdo con el Departamento de Defensa

Caitlin Kalinowski: “Se trataba de principios”

La aplicación ChatGPT de OpenAI se muestra en un smartphone el 3 de marzo de 2026 en Chicago, Illinois
La aplicación ChatGPT de OpenAI se muestra en un smartphone el 3 de marzo de 2026 en Chicago, Illinois (Getty Images)
Read in English

La jefa del equipo de robótica de OpenAI renunció tras expresar su preocupación por un reciente acuerdo con el Departamento de Defensa de Estados Unidos.

Caitlin Kalinowski, que trabaja en la creadora de ChatGPT desde noviembre de 2024, afirmó que su decisión se centró en la gobernanza de la empresa y en la necesidad de definir claramente los límites de seguridad en torno a su tecnología.

El CEO de OpenAI, Sam Altman, anunció el acuerdo con el Pentágono el 27 de febrero, poco después de que el Gobierno de Trump reveló sus planes de rescindir un contrato con Anthropic debido a la resistencia sobre cómo se utilizaría su bot Claude.

Dario Amodei, director ejecutivo de Anthropic, declaró que su empresa “no puede acceder en conciencia a la petición [del Departamento]” de utilizar sus productos para la vigilancia masiva y las armas autónomas.

El nuevo acuerdo entre el gobierno estadounidense y OpenAI provocó la reacción de decenas de empleados actuales, que firmaron una carta abierta en la que pedían a la empresa que compartiera la postura de Anthropic.

Kalinowski anunció su renuncia en una publicación de LinkedIn el fin de semana, en el que revelaba que el motivo de su salida de la empresa estaba relacionado con la forma en que se cerró el acuerdo con el Departamento de Defensa de Estados Unidos.

Afirmó que el anuncio fue “precipitado” y no tenía definidas las barreras de seguridad necesarias.

“No fue una decisión fácil. La IA tiene un papel importante en la seguridad nacional”, escribió.

“Pero la vigilancia de los estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que tuvieron”.

Ella añadió que su objetivo es seguir trabajando en la construcción de dispositivos físicos de inteligencia artificial, centrándose en la seguridad.

Desde entonces, Altman declaró que el anuncio inicial del acuerdo con el Departamento de Defensa parecía “oportunista y descuidado” y añadió que intentó modificar el acuerdo para incluir garantías adicionales.

En un comunicado, la empresa afirma que el lenguaje del nuevo acuerdo “explicita que nuestras herramientas no se utilizarán para llevar a cabo la vigilancia doméstica de personas estadounidenses”, ni para armas letales autónomas.

“Creemos que nuestro acuerdo tiene más salvaguardas que cualquier otro acuerdo anterior para despliegues clasificados de IA, incluido el de Anthropic”, dice el comunicado.

“En nuestro acuerdo, protegemos nuestras líneas rojas a través de un enfoque más amplio y de múltiples niveles. Mantenemos plena discreción sobre nuestro conjunto de medidas de seguridad, desplegamos a través de la nube, el personal autorizado de OpenAI está en el bucle y tenemos fuertes protecciones contractuales”.

Traducción de Olivia Gorsin

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in