Stay up to date with notifications from The Independent

Notifications can be managed in browser preferences.

Apple retrasa indefinidamente la introducción de funciones de escaneo de fotos tras protestas generalizadas

El jefe de software de Apple, Craig Federighi, admitió que el anuncio había sido “malogrado”, pero indicó que él y la empresa seguían comprometidos con la tecnología subyacente

Andrew Griffin
Lunes, 06 de septiembre de 2021 10:29 EDT
Apple descatalogará el iMac Pro
Read in English

Apple ha retrasado indefinidamente la introducción de sus nuevas funciones contra el abuso de menores, tras la protesta generalizada de los defensores de la privacidad y la seguridad.

La empresa había dicho que las dos nuevas herramientas -que intentan detectar cuándo se envían fotos inapropiadas a los niños y cuándo las personas tienen material de abuso sexual infantil en sus dispositivos- eran necesarias para detener la captación y explotación de niños.

Pero los activistas argumentaron que aumentaban los riesgos para la privacidad de otros usuarios del teléfono. Los críticos dijeron que las herramientas podrían utilizarse para buscar otro tipo de material y que socavaban el compromiso público de Apple con la privacidad como derecho humano.

Ahora Apple ha dicho que retrasará indefinidamente esas funciones, con el fin de mejorarlas antes de su lanzamiento.

“El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y a limitar la difusión de material de abuso sexual infantil”, dijo Apple.

“Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos un tiempo adicional en los próximos meses para recoger las opiniones y hacer mejoras antes de lanzar estas características de seguridad infantil de importancia crítica.”

Apple no había dado ninguna indicación concreta sobre cuándo se introducirían las nuevas funciones. Aunque aseguró que llegarían con una versión de iOS 15 -que se espera que se distribuya a los usuarios de iPhone y iPad este mes- sugirió que podrían introducirse en algún momento después de ese lanzamiento inicial.

Asimismo, no dio ninguna indicación sobre el tiempo que duraría el nuevo proceso de consulta, ni sobre si esperaba cambios sustanciales en el sistema antes de su lanzamiento.

Leer más: Galaxy Z Flip 3: Samsung lanza nuevo smartphone plegable, auriculares y reloj

Apple anunció los cambios -que constan de tres nuevas funciones- a principios de agosto. Dijo que añadiría nueva información a Siri y a la búsqueda si la gente indagaba sobre material de abuso sexual infantil (CSAM); que utilizaría la inteligencia artificial del teléfono para mirar las fotos enviadas a los niños y advertir a sus padres si parecían recibir imágenes inapropiadas; y que compararía las imágenes subidas a Fotos de iCloud con una base de datos de imágenes CSAM conocidas, y alertaría a las autoridades si se encontraban.

Apple subrayó que todos los cambios estaban destinados a preservar la privacidad. Señaló que el escaneo de las fotos se realizaba exclusivamente en el dispositivo para preservar el cifrado de extremo a extremo de los iMessages, y que sus servidores no participaban en el examen real de las imágenes cuando se subían a iCloud.

Las características obtuvieron la aprobación de los grupos de salvaguardia, incluido el Centro Nacional para Niños Desaparecidos y Explotados, que trabajó con Apple y que iba a proporcionar la base de datos de imágenes de abuso que se escanearía. La Internet Watch Foundation comentó que era un “paso vital para garantizar que los niños estén a salvo de los depredadores y de aquellos que los explotan en línea” y afirmó que el sistema de Apple era un “paso prometedor” tanto para proteger la privacidad como para mantener a los niños a salvo.

Pero estas garantías no fueron suficientes para satisfacer a los defensores de la seguridad y la privacidad. Edward Snowden mencionó que Apple estaba “extendiendo la vigilancia masiva a todo el mundo”, y la Electronic Frontier Foundation precisó que la función podría ampliarse fácilmente para buscar otro tipo de material.

“Es imposible construir un sistema de escaneo del lado del cliente que sólo pueda utilizarse para imágenes sexualmente explícitas enviadas o recibidas por niños. En consecuencia, incluso un esfuerzo bienintencionado para construir un sistema de este tipo rompería las promesas clave de la propia encriptación del mensajero y abriría la puerta a abusos más amplios”, informó en un comunicado poco después de que se publicara la función.

“Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido, o un ajuste de las banderas de configuración para escanear, no sólo las cuentas de los niños, sino las de cualquier persona. Eso no es una pendiente resbaladiza; es un sistema totalmente construido a la espera de la presión externa para hacer el más mínimo cambio”.

A raíz de ese clamor, el jefe de software de Apple, Craig Federighi, admitió que el anuncio había sido “malogrado”, pero indicó que él y la empresa seguían comprometidos con la tecnología subyacente.

Apple también trató de dar más información sobre el funcionamiento exacto de la función, dando garantías que incluían el compromiso de ser transparente con los investigadores de seguridad y diciendo que fijaría el umbral de CSAM lo suficientemente alto como para no esperar que el sistema mostrara falsos positivos.

Pero la oposición continuó, y los críticos siguieron pidiendo a Apple que abandonara la función. A mediados de agosto, una coalición de más de 90 grupos activistas diferentes escribió una carta abierta al director ejecutivo de Apple, Tim Cook, pidiéndole que abandonara lo que denominaba un plan para “incorporar capacidades de vigilancia a los iPhones, iPads y otros productos de Apple”.

Advirtió que la función de iMessages podría poner en peligro a los jóvenes al marcar las imágenes a sus padres, señalando especialmente que “los jóvenes LGBTQ+ con padres poco comprensivos están particularmente en riesgo”.

También detalló que una vez que la función de escaneo de fotos se construyera, “la compañía se enfrentará a una enorme presión, y posiblemente a requisitos legales, de los gobiernos de todo el mundo para escanear todo tipo de imágenes que los gobiernos consideran objetables”.

Apple aseguró que se resistiría a cualquier intento de los gobiernos de ampliar el uso de las funciones, y que en un principio sólo estaban previstas para su uso en Estados Unidos.

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in