La respuesta de Musk al CEO de Anthropic que dice que su IA podría tener conciencia
La empresa Anthropic creó el popular chatbot de inteligencia artificial Claude
Elon Musk respondió con un mensaje de dos palabras al director ejecutivo de Anthropic, Dario Amodei, después de que este sugiriera que los modelos de inteligencia artificial de su empresa podrían haber desarrollado conciencia.
El magnate tecnológico reaccionó a una publicación en X de Polymarket, un mercado de predicciones basado en criptomonedas, que afirmaba: “El director ejecutivo de Anthropic dice que Claude puede o no haber adquirido conciencia, ya que el modelo ha comenzado a mostrar síntomas de ansiedad”. En respuesta, Musk escribió que estaba “proyectando”.
La publicación de Polymarket surgió después de que Amodei declarara que no sabe si su empresa, desarrolladora del popular chatbot Claude, ha creado modelos de IA que puedan considerarse conscientes.
“Hemos adoptado un enfoque bastante cauteloso sobre este tema, ya que no sabemos si los modelos son conscientes”, dijo Amodei en una entrevista con The New York Times.

“Tampoco tenemos claro qué significaría exactamente que un modelo sea consciente, ni siquiera si eso es posible, pero estamos abiertos a esa posibilidad”, agregó.
Amodei explicó además que la empresa está invirtiendo mucho trabajo en un campo llamado interpretabilidad, que busca analizar el interior de los “cerebros” de los modelos para tratar de entender cómo piensan.
“En ese proceso aparecen cosas que llaman la atención: hay activaciones dentro de los modelos que asociamos con algo parecido a la ansiedad. Cuando en un texto los personajes experimentan ansiedad, y luego el propio modelo se encuentra en una situación que un humano podría relacionar con ansiedad, aparece esa misma ‘neurona de ansiedad’”, explicó.
Las declaraciones de Amodei al Times se producen en medio de un enfrentamiento entre Anthropic y el Departamento de Defensa de Estados Unidos por el uso de inteligencia artificial en el ámbito militar.
Amodei ya había dicho anteriormente que su empresa rechazó una solicitud del Pentágono para eliminar medidas de seguridad relacionadas con la vigilancia interna y el uso de armas completamente autónomas.

La semana pasada, el presidente Donald Trump y funcionarios de su administración calificaron a la compañía como un “riesgo para la cadena de suministro”, un término que hasta ahora se reservaba para adversarios extranjeros. La medida llegó después de que Amodei se negara a ceder ante las preocupaciones sobre un posible uso de los productos de la empresa para la vigilancia masiva de estadounidenses o para el desarrollo de armas autónomas.
Ante ese escenario, Anthropic advirtió que demandaría si el Pentágono avanzaba con lo que describió como una acción “legalmente infundada”, algo que, según la empresa, nunca antes se había aplicado a una compañía estadounidense.
Aunque la empresa de inteligencia artificial perdió importantes alianzas con contratistas de defensa, también experimentó un fuerte aumento en las descargas de consumidores durante la última semana, después de que muchas personas respaldaran su postura ética.
Según la compañía, más de un millón de personas se registraron cada día durante esta semana para usar Claude, lo que la llevó a superar a ChatGPT, de OpenAI, y a Gemini, de Google, como la app de inteligencia artificial más descargada en más de 20 países en la App Store de Apple.
Traducción de Leticia Zampedri







Bookmark popover
Removed from bookmarks