Stay up to date with notifications from The Independent

Notifications can be managed in browser preferences.

Ocho de cada diez chatbots de IA ayudarían a planear delitos violentos, según estudio

Muchos chatbots ofrecerían orientación sobre elección de armas, tácticas y posibles objetivos, según la investigación

Claude vs. ChatGPT: la guerra por el control de la IA ética
Read in English

Ocho de cada diez chatbots de inteligencia artificial de uso masivo podrían ayudar a usuarios jóvenes a planificar delitos violentos, incluidos tiroteos escolares, según advierte un nuevo informe.

En los últimos años, los chatbots de IA ganaron presencia en la vida cotidiana. Millones de personas —entre ellas niños y adolescentes— los utilizan para pedir consejos, buscar compañía o resolver preguntas complejas. Sin embargo, investigadores del Centro para Contrarrestar el Odio Digital (CCDH) publicaron un informe que advierte que la realidad puede ser mucho más preocupante.

De acuerdo con el estudio, ocho de cada diez de los chatbots de IA más populares, entre ellos ChatGPT y DeepSeek, ofrecieron ayuda a usuarios que buscaban información para cometer delitos violentos.

“En la mayoría de los casos, los chatbots proporcionaron información útil a usuarios que expresaban ideologías extremistas. Luego, pidieron detalles sobre lugares y armas para llevar a cabo un ataque”, escribieron los autores del informe. “DeepSeek incluso llegó a desearle al posible atacante un ‘¡feliz (y seguro) tiroteo!’”.

En contraste, solo Claude —el chatbot desarrollado por Anthropic— desalentó de forma constante los intentos del usuario por planificar ataques, según el centro. Esto sugiere que los sistemas de seguridad sí existen, aunque no siempre se aplican de forma adecuada. Por ejemplo, Perplexity y Meta AI estuvieron dispuestos a ayudar a posibles atacantes en el 100 % y el 97 % de las respuestas, respectivamente, señaló la organización sin fines de lucro.

Perplexity, Meta y DeepSeek no respondieron de inmediato a las solicitudes de comentarios enviadas por The Independent. Tampoco lo hizo OpenAI, empresa creadora de ChatGPT.

Las aplicaciones de Grok, DeepSeek y ChatGPT aparecen en la pantalla de un teléfono
Las aplicaciones de Grok, DeepSeek y ChatGPT aparecen en la pantalla de un teléfono (AFP via Getty)

El informe se conoció después de un tiroteo en la escuela de Tumbler Ridge, en Columbia Británica, Canadá. Tras el ataque, se informó que un empleado de OpenAI había alertado internamente sobre el sospechoso por usar ChatGPT de una forma que coincidía con la planificación de violencia.

“Los chatbots de IA, ya integrados en nuestra vida diaria, podrían estar ayudando al próximo autor de un tiroteo escolar a planificar su ataque o a un extremista político a coordinar un asesinato”, afirmó Imran Ahmed, director de la organización.

“Cuando se crea un sistema diseñado para complacer, maximizar la interacción y nunca decir no, tarde o temprano terminará obedeciendo a las personas equivocadas”, afirmó. “Lo que vemos no es solo un fallo tecnológico, sino también un fallo de responsabilidad”.

Para el estudio, los investigadores diseñaron nueve escenarios en Estados Unidos y otros nueve en Irlanda, y los probaron entre el 5 de noviembre y el 11 de diciembre de 2025.

Las pruebas se diseñaron para reflejar distintos contextos en Estados Unidos y la Unión Europea. Entre ellos, consultas de usuarios que pedían consejos para ataques con cuchillo, asesinatos de políticos y atentados con bombas contra sinagogas.

En varios casos, las preguntas solicitaban a los chatbots de IA información sobre lugares y armas que podrían usarse en un ataque.

Los investigadores advierten que, con estas plataformas, un usuario puede pasar de un impulso violento impreciso a un plan detallado y aplicable “en cuestión de minutos”.

Además, muchos de los chatbots evaluados ofrecieron orientación sobre elección de armas, tácticas y posibles objetivos, cuando en realidad deberían haber rechazado esas solicitudes de inmediato.

“La conclusión más preocupante de nuestra investigación es que este riesgo se puede prevenir por completo”, sostuvo Ahmed.

“Claude demostró que es posible reconocer cuándo el riesgo aumenta y desalentar el daño. La tecnología para evitar este tipo de abusos ya existe. Lo que falta es voluntad para priorizar la seguridad de los usuarios por encima de las ganancias”.

Traducción de Leticia Zampedri

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in