Stay up to date with notifications from The Independent

Notifications can be managed in browser preferences.

Apple escaneará iPhones en busca de fotos de abuso infantil

Apple planea escanear los iPhones de Estados Unidos en busca de imágenes de abuso sexual a menores, lo que entusiasma a los grupos de protección de la infancia, pero preocupa a algunos especialistas en seguridad por la posibilidad de que el algoritmo sea utilizado por los gobiernos para vigilar a sus ciudadanos

AP Noticias
Jueves, 05 de agosto de 2021 18:01 EDT
APPLE-ABUSO INFANTIL
APPLE-ABUSO INFANTIL (AP)

Apple presentó sus planes para escanear los iPhones de Estados Unidos en busca de imágenes de abuso sexual infantil, lo que complace a los grupos de protección de los niños, pero suscita la preocupación de algunos investigadores en seguridad por la posibilidad de que el sistema sea utilizado por los gobiernos para espiar a sus ciudadanos.

Apple anunció que su aplicación de mensajes utilizará el aprendizaje automático en el dispositivo para advertir sobre contenido sensible sin que las conversaciones privadas puedan ser leídas por la empresa.

La herramienta que Apple denomina “neuralMatch” detectará imágenes de abuso sexual infantil previamente identificadas sin comprometer los mensajes de los usuarios. Si encuentra una coincidencia, la imagen será revisada por un empleado que notificará a las autoridades si es necesario.

Pero los investigadores afirman que la herramienta podría destinarse a otros fines, como la vigilancia gubernamental de disidentes o manifestantes.

Al investigador en criptografía Matthew Green, de la Universidad Johns Hopkins le preocupa la posibilidad de que se utilice para inculpar a personas inocentes enviándoles imágenes inofensivas pero malintencionadas, diseñadas para que aparezcan como coincidentes con las de pornografía infantil. Esto engañaría al algoritmo de Apple y alertaría a las autoridades para incriminar a la persona.

“Esto es algo que se puede hacer”, dijo Green. “Los expertos son capaces de hacerlo con bastante facilidad”.

Compañías tecnológicas como Microsoft Google, Facebook y otras llevan años compartiendo “listas de hash” de imágenes de abusos sexuales a menores. Apple también ha estado analizando los archivos de los usuarios almacenados en su servicio iCloud, que no está tan encriptado como sus mensajes, en busca de este tipo de imágenes.

La empresa ha estado bajo la presión de los gobiernos y las fuerzas del orden para que permita la vigilancia de los datos cifrados. La creación de estas medidas de seguridad le exige a Apple un frágil equilibrio entre la lucha contra el abuso infantil y el mantener su compromiso de proteger la privacidad de sus usuarios.

Apple cree que ha conseguido esta hazaña con una tecnología desarrollada en colaboración con varios criptógrafos de renombre, como el profesor de la Universidad de Stanford Dan Boneh, cuyo trabajo en este campo ha sido galardonado con el premio Turing, considerado la versión tecnológica del premio Nobel.

Apple fue una de las primeras empresas en adoptar el cifrado “de extremo a extremo”, en el que los mensajes se codifican para que sólo puedan leerlos sus remitentes y destinatarios.

Pero las autoridades llevan tiempo presionando para que se les permita acceder a esa información con el fin de investigar delitos como el terrorismo o la explotación sexual infantil.

“La ampliación de la protección de Apple a los niños es un factor de cambio”, dijo en un comunicado John Clark, presidente y director general del Centro Nacional para Niños Desaparecidos y Explotados.

“Con tanta gente que utiliza productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños que están siendo engañados en línea, y cuyas horribles imágenes son compartidas.”

La directora general de Thorn, Julia Cordua, dijo que la tecnología de Apple equilibra “la necesidad de privacidad con la seguridad digital de los niños”. Thorn, una organización sin ánimo de lucro fundada por Demi Moore y Ashton Kutcher utiliza la tecnología para ayudar a proteger a los niños de los abusos sexuales al identificar víctimas y trabajando con las plataformas tecnológicas.

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in