La humanidad está en peligro si no se detiene la IA; expertos de tecnología emiten escalofriante advertencia
Los gobiernos deberían intervenir y detener el desarrollo de nuevos sistemas de inteligencia artificial si sus creadores no lo hacen, advierten expertos
La humanidad está en peligro por los “experimentos de inteligencia artificial” y hay que detenerlos para evitar el riesgo, según más de 1.000 expertos.
Los investigadores deben dejar de trabajar en el desarrollo de nuevos sistemas de IA (inteligencia artificial) durante los próximos seis meses, y si no lo hacen, entonces los gobiernos deben intervenir, advirtieron.
Tal es la grave conclusión de una nueva carta abierta firmada por expertos, incluidos académicos en el campo y líderes tecnológicos, como Elon Musk y el cofundador de Apple, Steve Wozniak.
La carta señala que las posibilidades positivas de la IA son significativas. Afirma que la humanidad “puede gozar de un futuro floreciente” con la tecnología, y que ahora podemos disfrutar de un “verano de IA” en el que nos adaptemos a lo ya creado.
Pero si los científicos siguen entrenando nuevos modelos, entonces el mundo podría enfrentarse a una situación mucho más difícil. “En los últimos meses, los laboratorios de IA han entrado en una competencia descontrolada para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”, escriben los autores de la carta.
El sistema de IA más avanzado disponible al público en este momento es GPT-4, desarrollado por OpenAI, que se lanzó a principios de este mes. La carta pide que los laboratorios de IA detengan el desarrollo de cualquier sistema más potente que ese, al menos durante los próximos seis meses.
“La pausa debe ser pública y verificable, e incluir a todos los responsables clave. Si no se puede promulgar tal pausa rápidamente, los gobiernos deben intervenir e instituir una suspensión”, escriben los autores.
Durante esos seis meses, tanto los laboratorios de IA como los expertos deberían crear nuevos principios para el diseño de sistemas de IA, afirman. Tales principios implicarían que cualquier sistema construido dentro de ellos es “seguro más allá de toda duda razonable”.
No supondría una pausa del trabajo de IA en general, sino la suspensión del desarrollo de nuevos modelos y capacidades. En cambio, la investigación “debería reenfocarse en hacer que los sistemas poderosos y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, sólidos, alineados, confiables y leales”.
La misma pausa también podría dar tiempo a los legisladores para crear nuevos sistemas de gobernanza para analizar la IA. Conllevaría la designación de autoridades que puedan rastrear su desarrollo y asegurarse de que no persigan fines peligrosos.
Por el momento, la carta incluye firmas de los fundadores y directores ejecutivos de Pinterest, Skype, Apple y Tesla. También incluye expertos en el campo de universidades como Berkeley, Princeton y otras.
Algunos investigadores de las empresas que están trabajando en sus propios sistemas de IA, como Deepmind, la empresa de inteligencia artificial del Reino Unido propiedad de la empresa matriz de Google, Alphabet, también firmaron la carta.
Elon Musk fue uno de los fundadores de OpenAI y contribuyó con fondos cuando se lanzó a fines de 2017. Pero en los últimos meses aparentemente se ha opuesto más a su trabajo, al argumentar que se está obsesionando con la creación de nuevos sistemas y está desarrollándolos indebidamente con fines de lucro.
Traducción de Michelle Padilla