Stay up to date with notifications from The Independent

Notifications can be managed in browser preferences.

Harris: organismos federales deben demostrar que sus herramientas de IA no hacen daño a la gente

Matt O'Brien
Jueves, 28 de marzo de 2024 08:40 EDT
BIDEN-HARRIS IA
BIDEN-HARRIS IA (AP)

Los organismos federales deben demostrar que sus herramientas de inteligencia artificial no hacen daño a la gente, o bien dejar de usarlas, según nuevas normas reveladas por la Casa Blanca el jueves.

“Cuando los organismos del gobierno utilicen herramientas de IA, les requeriremos que verifiquen que esas herramientas no ponen en peligro los derechos y la seguridad del pueblo estadounidense”, dijo la vicepresidenta Kamala Harris a la prensa antes del anuncio.

Para diciembre, cada entidad debe tener un conjunto de salvaguardas concretas que guíen todo, desde las pantallas de reconocimiento facial en los aeropuertos hasta las herramientas de IA que ayudan a controlar la red eléctrica o determinan las hipotecas y seguros de viviendas.

La nueva directiva emitida el jueves a los jefes de los organismos por la Oficina de Administración y Presupuesto de la Casa Blanca es parte del amplio decreto sobre IA firmado por el presidente Joe Biden en octubre.

Si bien el decreto amplio trata de salvaguardar los sistemas comerciales de IA fabricado por las empresas tecnológicas líderes, tales como los que activan los chatbots de IA generativa, la directiva del jueves apunta a las herramientas que los organismos emplean desde hace años para tomar decisiones sobre inmigración, vivienda, bienestar infantil y una gama de servicios.

Como ejemplo, Harris dijo que “si la Administración de Veteranos quiere usar IA en sus hospitales para ayudar a los médicos a diagnosticar a los pacientes, deberán demostrar ante todo que la IA no produce diagnósticos racialmente prejuiciosos”.

Los organismos que no pueden aplicar las salvaguardas “deben dejar de usar el sistema de IA a menos que la conducción pueda explicar por qué hacerlo incrementaría los riesgos o derechos en general o crearía un obstáculo insalvable para sus operaciones cruciales”, según un anuncio de la Casa Blanca.

Hay otros dos “requisitos vinculantes”, dijo Harris. Uno es que las entidades federales deben contratar un jefe de IA con la “experiencia, pericia y autoridad” para supervisar todas las tecnologías de IA empleadas por el organismo, dijo Harris. La otra es que cada año los organismos deben publicar un inventario de sus sistemas de IA que incluya una evaluación de sus posibles riesgos.

Hay algunas excepciones para las agencias de inteligencia y el Departamento de Defensa, que mantiene un debate particular sobre el uso de armas autónomas.

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in