Comisión electoral de EEUU analiza regulación de imágenes generadas por IA en anuncios políticos
La Comisión de Elecciones Federales de Estados Unidos ha iniciado un proceso para regular las imágenes generadas por inteligencia artificial en los anuncios políticos de las elecciones de 2024, una acción que, según sus partidarios, protegería a los votantes frente a una forma especialmente maliciosa de desinformación electoral.
El voto procesal unánime de la Comisión de Elecciones Federales (FEC por sus siglas en inglés) del jueves abre paso a una petición que le pide que regule los anuncios que utilizan la inteligencia artificial para hacer parecer que los oponentes políticos dicen o hacen algo que no dijeron ni hicieron, una cuestión que ya se está destacando en las actuales primarias presidenciales del Partido Republicano.
Aunque la difusión de imágenes, videos o fragmentos de audio falsos y convincentes no es nueva, las innovadoras herramientas de IA generativa los están haciendo más baratos, más fáciles de usar y con más posibilidades de manipular la percepción pública. Como resultado, algunas campañas políticas para la contienda de 2024, incluida la del gobernador de Florida Ron DeSantis, ya las están utilizando para persuadir a los votantes.
En abril, el Comité Nacional Republicano publicó un anuncio generado íntegramente por IA que pretendía mostrar el futuro de Estados Unidos si el presidente Joe Biden era reelegido. Contenía fotos falsas, pero realistas, que mostraban escaparates tapiados, patrullas militares blindadas en las calles y oleadas de inmigrantes generando pánico.
Y en junio, la campaña de DeSantis compartió un anuncio contra su oponente en las primarias del Partido Republicano, Donald Trump, que utilizaba imágenes generadas por IA del expresidente abrazando al doctor Anthony Fauci, un experto del gobierno en enfermedades infecciosas.
SOS America PAC, que apoya al alcalde de Miami Francis Suárez, también ha experimentado con la IA generativa, utilizando una herramienta llamada VideoAsk para crear un chatbot de IA a su semejanza.
La reunión del jueves de la FEC se produjo después de que el grupo activista Public Citizen pidió a la agencia que aclarara si una ley federal existente contra la “tergiversación fraudulenta” en las comunicaciones de campaña abarca las imágenes falsas generadas por IA.
El voto del panel muestra la intención de la agencia de considerar la cuestión, pero no decidirá si realmente desarrolla normas que regulen los anuncios hasta después de un periodo de comentarios públicos de 60 días, que probablemente comenzará la próxima semana.
En junio, la FEC llegó a un punto muerto en una solicitud anterior del grupo, en la que algunos comisionados expresaron su escepticismo sobre si tenían autoridad para regular los anuncios de inteligencia artificial. Public Citizen volvió con una nueva petición en la que mencionó la ley de tergiversación fraudulenta y explicó que creía que la FEC sí tenía jurisdicción.
___
The Associated Press recibe apoyo de varias fundaciones privadas para mejorar su cobertura explicativa de las elecciones y la democracia. La AP es la única responsable de todo el contenido.