Apple comenzará a escanear fotos y mensajes para prevenir abuso infantil

La compañía dice que la función se introducirá de una manera que mantenga esas comunicaciones ocultas a Apple

Andrew Griffin
jueves 05 agosto 2021 23:28
La UE endurece las normas contra el abuso infantil online
Read in English

Apple está lanzando nuevas funciones que permitirán a sus dispositivos escanear las fotos y los mensajes de las personas para verificar si hay signos de abuso.

La compañía dice que la función se introducirá de una manera que mantenga esas comunicaciones ocultas a Apple y para garantizar que la privacidad de los usuarios esté protegida.

Pero se garantiza que la función generará preocupaciones por parte de los defensores de la privacidad, especialmente dado el compromiso público de Apple de que la privacidad es un derecho humano.

La compañía está introduciendo tres nuevas medidas, que incluyen mensajes, fotos y características adicionales que se agregarán a Siri. Las adiciones llegarán “a finales de este año”, dijo Apple, en actualizaciones que llegarán a todas sus plataformas: iOS 15, iPadOS 15, WatchOS 8 y MacOS Monterey.

Por el momento, las funciones están limitadas a EE.UU.

La primera de las tres características utilizará el aprendizaje automático en el dispositivo del teléfono para verificar el contenido de los mensajes de los niños en busca de fotos que parezcan ser sexualmente explícitas. Ese análisis se hará completamente en el teléfono, dijo Apple, y no podrá ver esos mensajes.

Si un niño recibe un mensaje de este tipo, se verá borroso y se le advertirá que podría ser sensible y se le dará información sobre dichos mensajes, además de que se le dará la opción de bloquear el contacto. Si un niño decide ver un mensaje, se le informará que sus padres serán alertados y luego se notificará a un adulto.

Existen protecciones similares cuando los niños envían mensajes, dijo Apple. Se advertirá a los niños antes de que se envíe la foto y los padres pueden configurar notificaciones cuando su hijo envía una foto que activa la función.

Leer más: Estados Unidos planea exigir la vacunación de los turistas extranjeros en los primeros pasos hacia la reapertura

Pero lo más probable es que resulte controvertido es una segunda característica que busca en las fotos un posible material de abuso sexual infantil, o CSAM. La tecnología en iOS y iPadOS escaneará a través de la biblioteca de fotos de iCloud de las personas en busca de dichos mensajes, pero de una manera que la compañía afirma que se hará "teniendo en cuenta la privacidad del usuario".

Una vez más, el escaneo no se realizará primero en la nube, sino en el propio dispositivo. El iPhone o iPad buscará las fotos en la biblioteca de un usuario y verá si alguna de ellas coincide con una base de datos de imágenes de abuso conocido proporcionada por organizaciones de seguridad infantil.

Si la similitud de esas imágenes es lo suficientemente alta, entonces la imagen se revelará a Apple, que podrá ver el contenido. Luego revisará manualmente las imágenes para confirmar que hay una coincidencia, y si la hay, la cuenta de los usuarios se deshabilitará y se informará a las autoridades.

Apple destacó que ambas funciones se realizan teniendo en cuenta la privacidad y subió cuatro evaluaciones técnicas realizadas por profesores para ilustrar su punto.

Pero la noticia ha demostrado ser increíblemente controvertida incluso antes de ser anunciada. El miércoles, el experto en criptografía Matthew Green reveló que Apple había estado trabajando en la función, y tanto él como varios expertos en seguridad y privacidad advirtieron que la función podría marcar una desviación del récord anterior de Apple.

El profesor Green, que trabaja en Johns Hopkins, dijo que si bien estas tecnologías de escaneo son mejores que las herramientas más tradicionales, siguen siendo "herramientas de vigilancia masiva". Señaló que cualquiera que controle la lista de posibles imágenes podría usarla para buscar cualquier imagen, no solo aquellas asociadas con el abuso infantil, y que no habría forma de saber si el sistema estaba siendo abusado de esa manera.

"La teoría es que confiarás en que Apple solo incluirá imágenes realmente malas", escribió en un tweet. “Digamos, imágenes seleccionadas por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

"Será mejor que confíes en ellos, porque la confianza es todo lo que tienes".

Alan Woodward, un experto en informática de la Universidad de Surrey, fue uno de los muchos que se hicieron eco de las preocupaciones del profesor Green. Dijo que podría ser un "arma de doble filo: el camino al infierno está pavimentado de buenas intenciones" y pidió más discusión pública antes de su lanzamiento.

El tercero es más sencillo y agrega nueva información a Siri y Search con el objetivo de brindar a los niños y padres recursos para lidiar con un posible abuso. Los usuarios pueden hacer preguntas específicas, como cómo denunciar un posible abuso, así como preguntas más generales, y recibirán información más detallada.