Las inteligencias artificiales desarrollan sus propias comunidades cuando actúan sin supervisión
¿Pueden estos modelos coordinar su comportamiento formando convenciones, los bloques de construcción de una sociedad?
Los sistemas de inteligencia artificial (IA) empiezan a crear sociedades cuando actúan sin supervisión, afirman expertos.
Según los científicos, cuando se comunican en grupo, las herramientas de inteligencia artificial son capaces de organizarse y crear nuevos tipos de normas lingüísticas, de forma muy parecida a como lo hacen las comunidades humanas.
En el estudio, los investigadores trataron de entender cómo interactúan entre sí los grandes modelos lingüísticos como los que sustentan ChatGPT y otras herramientas similares. El objetivo era, en parte, anticiparse a una época en la que Internet estará repleta de sistemas de este tipo, que interactuarán e incluso conversarán entre sí.
“La mayoría de las investigaciones realizadas hasta ahora han tratado a los grandes modelos lingüísticos de forma aislada”, afirma Ariel Flint Ashery, autor principal e investigador doctoral en City St George’s de la Universidad de Londres. “Pero los sistemas de IA del mundo real implicarán cada vez más a muchos agentes que interactúan”.
Se plantearon una pregunta: ¿pueden estos modelos coordinar su comportamiento formando convenciones, los bloques de construcción de una sociedad? Y la respuesta fue afirmativa. El autor agrega: “Lo que hacen en conjunto no puede reducirse a lo que hacen de forma individual”.
Para entender cómo podrían formarse estas sociedades, los investigadores utilizaron un modelo que se ha empleado para los humanos, conocido como el “juego de los nombres”. La dinámica consiste en juntar a personas —o agentes de IA— y pedirles que elijan un “nombre” entre una serie de opciones, y obtienen una recompensa si eligen el mismo.
Con el tiempo, se observó que los agentes de IA construían nuevas convenciones de nomenclatura compartidas, que parecían surgir de manera espontánea del grupo. El fenómeno ocurrió sin que se coordinaran o consultaran sobre ese plan, y sucedió de la misma manera ascendente en que tienden a formarse las normas en las culturas humanas.
El grupo de agentes de IA también parecía desarrollar ciertos sesgos, que también parecían formarse dentro del grupo y no a partir de un agente en particular.
“El sesgo no siempre procede del interior” —explica Andrea Baronchelli, catedrático de Ciencias de la Complejidad en City St George's y autor principal del estudio— “nos sorprendió ver que puede surgir entre agentes, simplemente de sus interacciones. Es un punto ciego en la mayoría de los trabajos actuales sobre seguridad de la IA, que se centran en modelos únicos”.
Los investigadores también demostraron que era posible que un pequeño grupo de agentes de IA empujara a un grupo mayor hacia una determinada convención. Esto también se observa en los grupos humanos.
Los investigadores señalan que el trabajo debería ser útil para explorar en qué se parecen y en qué se diferencian los seres humanos y los sistemas de IA, sobre todo a medida que estos últimos dominan cada vez más el Internet y podrían estar conversando y colaborando entre sí sin que sepamos.
“Este estudio abre un nuevo horizonte para la investigación sobre la seguridad de la IA. Muestra la profundidad de las implicaciones de esta nueva especie de agentes que han empezado a interactuar con nosotros y que se verán implicados en el desarrollo de nuestro futuro”, afirmó el profesor Baronchelli en un comunicado.
“Entender cómo funcionan es clave para liderar nuestra coexistencia con la IA, en lugar de estar sometidos a ella. Estamos entrando en un mundo en el que la IA no se limita a hablar: negocia, se alinea y a veces discrepa sobre comportamientos compartidos, igual que nosotros”.
Los resultados se recopilan en un nuevo estudio, ‘Emergent Social Conventions and Collective Bias in LLM Populations’ (que en español sería, Convenciones sociales emergentes y prejuicios colectivos en poblaciones de grandes modelos lingüísticos), publicado en la revista Science Advances.
Traducción de Michelle Padilla