Un experto advierte que la IA podría ser la última tecnología creada por la humanidad
Postergan la proyección sobre el momento en que la IA podría volverse autónoma y superinteligente
Un experto ha advertido que la inteligencia artificial podría convertirse en “la última tecnología que la humanidad construya”, tras la revisión de una llamada “línea de tiempo del desastre” que proyecta el momento en que la IA podría superar a los seres humanos.
La advertencia surge a raíz del proyecto de investigación AI 2027, publicado en abril de 2025, el cual plantea un escenario futuro en el que la IA desarrolla una “superinteligencia” con capacidad de “programación totalmente autónoma”. Según el estudio, esta habilidad le permitiría volverse cada vez más poderosa y, en uno de los posibles desenlaces, llevar a la destrucción de la humanidad.
El informe fue elaborado por el grupo de investigación AI Futures y se basa en la proyección de que 2027 sería el año más probable en que la IA alcanzaría la capacidad de automatizar su propio desarrollo y tomar control de su evolución tecnológica.
Según el modelo, este avance permitiría que la IA supere a los seres humanos en la mayoría de las tareas cognitivas.
Además, proyecta que hacia finales de 2027 podría surgir una “superinteligencia artificial” capaz de acelerar su propio desarrollo, lo que, en última instancia, daría paso a una IA tan avanzada que podría superar y dominar a la humanidad.
Sin embargo, AI Futures revisó recientemente su “línea de tiempo del desastre” en una nueva actualización publicada a fines de diciembre. El nuevo estudio sugiere que la inteligencia artificial podría tardar más de lo previsto en alcanzar hitos clave de capacidad, como la programación completamente automatizada y el desarrollo de una superinteligencia.
Al explicar la revisión en una publicación en la plataforma X, el líder del proyecto, Daniel Kokotajlo, señaló: “Las cosas parecen avanzar algo más lento que en el escenario de AI 2027. Cuando publicamos, nuestros plazos ya iban más allá de 2027 y ahora se han extendido un poco más”.
Según Kokotajlo, la proyección actual sitúa esos avances “alrededor de 2030”. No obstante, advirtió que persiste un alto grado de incertidumbre respecto al calendario estimado.
El proyecto inicial AI 2027 contemplaba un escenario en el que, para el año 2030, un modelo de inteligencia artificial todopoderoso se habría autoconstruido con el objetivo de hacer del mundo un entorno seguro para sí mismo —no necesariamente para la humanidad—. En ese proceso, según el estudio, la IA buscaría “eliminar amenazas potenciales”.
El desenlace más extremo planteado por el modelo sugiere que los seres humanos podrían volverse obsoletos. De acuerdo con esta proyección, la IA aniquilaría a la humanidad a comienzos de la próxima década para liberar espacio destinado a infraestructura que la alimente y le sea favorable.
No obstante, el modelo actualizado de AI Futures ahora prevé que la inteligencia artificial podría alcanzar la capacidad de programar de forma autónoma en la década de 2030, y ya no en 2027, como indicaba la versión original. Además, el nuevo informe evita establecer una fecha específica para una posible dominación de la humanidad por parte de la IA.
El nuevo modelado anticipa un retraso de aproximadamente tres años en el proceso y sitúa en 2034 su proyección más reciente para el surgimiento de una superinteligencia artificial.
El modelo original de AI 2027 provocó un amplio debate en la comunidad tecnológica. Gary Marcus, profesor emérito de neurociencia en la Universidad de Nueva York, llegó a compararlo con un thriller de Netflix y lo calificó como “pura palabrería de ciencia ficción” en una publicación en Substack.
Por su parte, Fazl Barez, investigador principal en la Universidad de Oxford y especialista en seguridad, interpretabilidad y gobernanza de IA, expresó a The Independent que no comparte la línea de tiempo propuesta por el estudio. Sin embargo, reconoció que el trabajo es útil para abrir conversaciones cruciales sobre los posibles riesgos de esta tecnología.
“Entre los expertos, prácticamente nadie discrepa en que, si no resolvemos el problema de la alineación y no logramos que el sistema sea seguro, esta podría ser la última tecnología que la humanidad construya”, advirtió.
“Qué tan lejos estamos de ese escenario y cuán probable es que ocurra sigue siendo una pregunta abierta”.

Barez, quien lidera proyectos dentro de la AI Governance Initiative, advirtió que el desarrollo de las capacidades de la inteligencia artificial avanza actualmente a un ritmo mucho más rápido que las medidas de seguridad y mitigación. Describió esta aceleración como “comparable a la velocidad de la luz”.
“Todavía no hemos logrado definir cómo prevenir tanto las consecuencias negativas que conlleva como aquellas que perpetúan y agravan problemas ya existentes en la sociedad”, explicó.
“Muchos de esos problemas ya están ahí. Sin embargo, el uso de la tecnología puede intensificar la velocidad con la que ahora ocurren”.
Aunque el doctor Barez considera difícil establecer una línea de tiempo precisa sobre la evolución de la IA, insistió en la necesidad urgente de impulsar investigaciones que aseguren que esta tecnología permanezca al servicio de la humanidad, en lugar de reemplazarla.
“Con cualquier tecnología, el verdadero problema desde mi perspectiva es el debilitamiento progresivo de la humanidad, cuando perdemos la capacidad de pensar por nosotros mismos y de hacer las cosas por cuenta propia a medida que aumenta nuestra dependencia”, sostuvo.
Y concluyó con un ejemplo cotidiano: “Hoy, quizá le pidas al sistema que redacte un correo electrónico. Pero mañana podría hacerlo todo: desde redactarlo según sus propios valores, hasta enviarlo y monitorear tu bandeja de entrada en adelante”.
“La verdadera pregunta que deberíamos hacernos es cómo desarrollamos esta tecnología de forma que tenga el impacto económico que buscamos, pero que siempre esté al servicio de la humanidad. Que esté ahí para servir a nuestros propósitos y objetivos —como ocurrió con las tecnologías anteriores— y no para reemplazarnos”.
Traducción de Leticia Zampedri







Bookmark popover
Removed from bookmarks