La UE presenta plan para regular la inteligencia artificial
Autoridades de la Unión Europea dan a conocer propuestas para frenar ciertos usos de alto riesgo de la inteligencia artificial, como el escaneo facial en vivo, que puedan amenazar la seguridad o los derechos de las personas
Autoridades de la Unión Europea dieron a conocer propuestas el miércoles para frenar ciertos usos de alto riesgo de la inteligencia artificial, como el escaneo facial en vivo, que puedan amenazar la seguridad o los derechos de las personas.
El reglamento propuesto por la Comisión Europea, el brazo ejecutivo de la UE, incluye reglas sobre el uso de la tecnología en rápida expansión en actividades como elegir escuela, trabajo o pedir un préstamo. También prohibiría la inteligencia artificial por completo en algunas situaciones, como la “puntuación social” y sistemas utilizados para manipular el comportamiento humano.
Las propuestas son el paso más reciente del bloque de 27 naciones para mantener su papel como paladín de la regulación tecnológica. Las autoridades europeas dicen que están adoptando un “enfoque basado en el riesgo” mientras tratan de equilibrar la necesidad de proteger derechos como la privacidad de los datos con la necesidad de fomentar la innovación.
“Con estas reglas históricas, la UE encabeza el desarrollo de nuevas normas globales para garantizar que se pueda confiar en la IA”, dijo en un comunicado Margrethe Vestager, vicepresidenta ejecutiva de la Comisión Europea para la era digital. “Al establecer los estándares, podemos allanar el camino hacia la tecnología ética en todo el mundo y garantizar que la UE siga siendo competitiva”.
Las propuestas también incluyen en principio prohibir la “identificación biométrica remota”, como el uso en vivo del reconocimiento facial de multitudes de personas en lugares públicos, con excepciones sólo para fines de aplicación de la ley estrictamente definidos, como la búsqueda de un niño desaparecido o una persona buscada por la justicia.
El borrador de las regulaciones dice que los chatbots y los deepfakes deben etiquetarse para que las personas sepan que están interactuando con una máquina.