Experimentación con IA tiene un alto riesgo y una posible gran recompensa en campañas locales
Adrian Perkins buscaba su reelección como alcalde de Shreveport, Luisiana, cuando fue sorprendido por un crudo anuncio de campaña.
El satírico anuncio televisivo, pagado por un comité de acción política rival, había recurrido a la inteligencia artificial para representar a Perkins como un alumno de secundaria que había sido llamado a la oficina de la directora. En lugar de darle una reprimenda por copiar en un examen o meterse en una pelea, la directora le reprochaba su incapacidad para mantener la seguridad de la comunidad y para crear empleo.
El video superponía la cara de Perkins en el cuerpo de un actor que lo interpretaba. Aunque el anuncio fue etiquetado como creado con “tecnología informática de aprendizaje profundo”, Perkins dijo que era poderoso y caló entre los votantes. No tenía suficiente dinero ni personal de campaña para contrarrestarlo, y cree que fue una de las muchas razones por las que perdió la contienda de 2022. Un representante del grupo detrás del anuncio no respondió a una solicitud de comentarios.
“Al cien por ciento, el spot falso afectó a nuestra campaña porque éramos una candidatura con menos votos y recursos”, dijo Perkins, de extracción demócrata. “Había que elegir dónde poner los esfuerzos”.
Aunque este tipo de ataques son habituales en las campañas políticas, el anuncio contra Perkins fue significativo. Se cree que es uno de los primeros ejemplos de un video falso manipulado con IA desplegado en una contienda política en Estados Unidos. También presagia un dilema al que se enfrentan los candidatos en decenas de contiendas estatales y locales este año, a medida que la IA generativa se expande y es más fácil de usar.
La tecnología —que puede hacer de todo: desde agilizar tareas rutinarias de campaña hasta crear imágenes, video o audio falsos— ya se ha desplegado en algunas contiendas nacionales de todo el país y se ha extendido aún más en elecciones de otras partes del mundo. A pesar de su poder como herramienta para engañar, los intentos de regularla han sido poco sistemáticos o se han retrasado: una laguna que podría tener las mayores repercusiones en las elecciones más pequeñas.
La inteligencia artificial es un arma de doble filo para los candidatos que participan en tales campañas. Los modelos de IA baratos y fáciles de usar pueden ayudarles a ahorrar dinero y tiempo en algunas de sus tareas cotidianas. Pero a menudo carecen del personal o la experiencia necesarios para combatir las falsedades generadas por la IA, lo que aumenta el temor a que un video deepfake de última hora pueda engañar a suficientes votantes como para decantar unas elecciones decididas por estrechos márgenes.
Según Josh Lawson, director de IA y democracia del Aspen Institute, “las amenazas generadas por la IA afectan a contiendas reñidas y de poca repercusión, en las que importan los pequeños cambios y en las que suele haber menos recursos para corregir las historias engañosas”.
Falta de salvaguardias nacionales
Algunos candidatos locales ya han sido criticados por utilizar la IA de forma engañosa, desde un candidato republicano al Senado de Tennessee que utilizó un retrato por IA para parecer más delgado y joven hasta el sheriff demócrata de Filadelfia, cuya campaña de reelección promovió noticias falsas generadas por ChatGPT.
Uno de los problemas a la hora de separar la realidad de la ficción es el declive de los medios de comunicación locales, que en muchos lugares se ha traducido en una cobertura mucho menor de los candidatos a cargos estatales y locales, especialmente de los reportajes que profundizan en los antecedentes de los candidatos y en el funcionamiento de sus campañas. La falta de familiaridad con los candidatos puede hacer que los votantes sean más proclives a creer información falsa, según el senador Mark Warner, de Virginia.
El demócrata, que ha trabajado extensamente en proyectos legislativos relacionados con la IA como presidente de la Comisión de Inteligencia del Senado, dijo que la desinformación generada por IA es más fácil de detectar y combatir en las contiendas de primer nivel porque están sometidas a un mayor escrutinio. Cuando una llamada automatizada generada por IA se hizo pasar por el presidente Joe Biden para disuadir a los votantes de acudir a las urnas en las primarias de Nueva Hampshire este año, los medios de comunicación rápidamente la repotaron e investigaron, lo que tuvo graves consecuencias para los responsables.
Más de un tercio de los estados han aprobado leyes que regulan la inteligencia artificial en la política, y la legislación destinada específicamente a luchar contra los videos deepfakes relacionados con las elecciones ha recibido apoyo bipartidista en todos los estados donde se ha aprobado, según el grupo de defensa del consumidor Public Citizen.
Pero el Congreso aún no ha actuado, a pesar de que varios grupos bipartidistas de legisladores han propuesto este tipo de legislación.
“El Congreso es patético”, dijo Warner, que se mostró pesimista sobre la posibilidad de que el Congreso apruebe este año alguna ley que proteja las elecciones de la interferencia de la IA.
Travis Brimm, director ejecutivo de la Asociación Demócrata de Secretarios de Gobierno, calificó el espectro de la desinformación con IA en las elecciones como una cuestión en evolución en la que la gente “sigue trabajando para encontrar la mejor manera de avanzar”.
“Se trata de un verdadero reto, y por eso hemos visto a secretarios demócratas lanzarse a abordarlo y aprobar una verdadera legislación con sanciones reales en torno al abuso de la IA”, dijo Brimm.
Un portavoz del Comité Republicano de Secretarios de Gobierno no respondió a la solicitud de comentarios de la AP.
¿Cómo se regula la integridad?
Aunque expertos y legisladores se preocupan por cómo los ataques con IA generativa podrían alterar una elección, algunos candidatos a cargos estatales o locales afirman que las herramientas de la IA han demostrado ser invaluables para sus campañas. Estos potentes sistemas informáticos, programas o procesos pueden emular aspectos del trabajo y la capacidad cognitiva de los seres humanos.
Glenn Cook, candidato republicano a un escaño legislativo estatal por el sureste de Georgia, es menos conocido y dispone de mucho menos dinero para su campaña que el candidato al que se enfrenta en la segunda vuelta de las elecciones del martes. Por eso ha invertido en un consultor digital que crea gran parte del contenido de su campaña utilizando modelos de IA generativa baratos y disponibles públicamente.
En su sitio web, los artículos generados por IA están salpicados de imágenes generadas por IA de miembros de la comunidad que sonríen y charlan, pero ninguna de estas personas existe realmente. Los episodios de podcast generados por IA utilizan una versión clonada de su voz para narrar sus posiciones políticas.
Cook dice que revisa todo antes de hacerlo público. El ahorro de tiempo y dinero le ha permitido tocar más puertas en el distrito y asistir a más actos de campaña en persona.
“Mi esposa y yo hicimos 4.500 visitas por aquí”, dijo. "Eso te permite hacer muchas cosas”.
El oponente de Cook, el representante estatal republicano Steven Sainz, dijo que cree que Cook “se esconde detrás de lo que equivale a un robot en lugar de comunicar auténticamente sus opiniones a los votantes”.
“No me postulo con promesas generadas artificialmente, sino con resultados del mundo real”, dijo Sainz, añadiendo que no está utilizando IA en su propia campaña.
Los votantes republicanos del distrito no estaban seguros de qué hacer con el uso de la IA en la contienda, pero dijeron que lo que más les importaba eran los valores de los candidatos y su acercamiento en la campaña. Patricia Rowell, una jubilada y electora de Cook, dijo que le gusta que él haya estado en su comunidad tres o cuatro veces durante la campaña, mientras que Mike Perry, un trabajador autónomo que vota por Sainz, dijo que ha sentido un contacto más personal por parte de este candidato.
Afirmó que el uso generalizado de la IA en política es inevitable, pero se preguntó cómo podrán los votantes diferenciar lo que es cierto de lo que no lo es.
“Es libertad de expresión, tú sabes, y no quiero desalentar la libertad de expresión, pero todo depende de la integridad de las personas que la emiten”, dijo. “Y no sé cómo se regula la integridad. Es algo bastante difícil”.
Las campañas locales son vulnerables
Empresas digitales que comercializan modelos de IA para campañas políticas dijeron a la AP que por ahora la mayor parte del uso de la IA en campañas locales es mínimo y está diseñado para aumentar la eficiencia de tareas tediosas, como el análisis de datos de encuestas o la redacción de textos para redes sociales que cumplan con un cierto número de palabras.
Según un nuevo informe de un equipo liderado por investigadores de la Universidad de Texas, campus Austin, los asesores políticos cada vez están experimentando más con herramientas de IA para ver cuáles funcionan. Más de 20 asesores políticos de diferentes posturas ideológicas dijeron a los investigadores que estaban experimentando con modelos generativos de IA en las campañas de este año, aunque también les preocupa que personas sin tantos escrúpulos pudieran estar haciendo lo mismo.
“Las elecciones a nivel local serán mucho más desafiantes porque la gente atacará”, indicó Zelly Martin, autora principal del informe e investigadora sénior del Center for Media Engagement de la universidad. “¿Y qué recursos tienen para defenderse, a diferencia de Biden y Trump, que disponen de muchos más recursos para repeler los ataques?”.
Existen enormes diferencias en cuanto a personal, dinero y experiencia entre las campañas electorales locales —para legislador estatal, alcalde, consejo escolar o cualquier otro cargo local— y las campañas para cargos federales. Mientras que una campaña local puede tener sólo un puñado de empleados, las campañas competitivas para la Cámara de Representantes y el Senado pueden tener docenas, y las operaciones presidenciales pueden llegar a miles al final de la campaña.
Tanto el equipo de campaña de Biden como el del expresidente Donald Trump están experimentando con la IA para mejorar la recaudación de fondos y el acercamiento con los votantes. Mia Ehrenberg, portavoz del equipo de campaña de Biden, dijo que también tienen un plan para desacreditar la desinformación generada por la IA. Un portavoz de la campaña de Trump no respondió a las preguntas de AP sobre sus planes para hacer frente a la desinformación generada por IA.
Perkins, exalcalde de Shreveport, tenía un pequeño equipo que decidió ignorar el ataque y seguir haciendo campaña cuando el video deepfake en el que aparecía en la oficina de la directora apareció en la televisión local. En su momento, Perkins consideró el anuncio falso en su contra como un típico truco sucio, pero el auge de la IA en los dos años transcurridos desde su campaña le ha hecho darse cuenta del poder de la tecnología como herramienta para engañar a los votantes.
“En política, la gente siempre va a ir un poco más allá de los límites para ser eficaz”, dijo. “No teníamos ni idea de la trascendencia que iba a tener”.
___
Burke informó desde San Francisco, Merica desde Washington y Swenson desde Nueva York.
___
Este reportaje forma parte de una serie de Associated Press, “La campaña de la IA”, que explora la influencia de la inteligencia artificial en el ciclo electoral de 2024.
___
The Associated Press recibe apoyo de varias fundaciones privadas para mejorar su cobertura explicativa de las elecciones y la democracia, y de la Omidyar Network para apoyar la cobertura de la inteligencia artificial y su impacto en la sociedad. La AP es la única responsable de todo el contenido.