Tecnología

Apple escaneará los iPhone en busca de imágenes de abuso sexual infantil

La empresa dio detalles sobre un nuevo sistema que buscará coincidencias entre las imágenes en un dispositivo y otras ya conocidas de abuso infantil. Algunos expertos advirtieron que esta tecnología podría ser usada por gobiernos autoritarios para espiar a sus ciudadanos

Apple anunció detalles de un sistema para detectar material de abuso sexual infantil en los dispositivos de sus clientes estadounidenses.

Antes de que una imagen se almacene en iCloud Photos, el sistema buscará similitudes entre las imágenes en el dispositivo y otras ya conocidas de abuso infantil.

Apple afirmó que si se encuentra una coincidencia, un revisor humano evaluará e informará sobre el usuario a la policía.

Sin embargo, el anuncio ha generado temores de que la tecnología pueda expandirse y permita escanear teléfonos en busca de otros materiales prohibidos, incluso contenidos políticos en dispositivos de disidentes.

Expertos en privacidad expresaron preocupación de que gobiernos autoritarios puedan utilizar esta tecnología para espiar a sus ciudadanos.

Nuevas aplicaciones

Apple anunció que las nuevas versiones de iOS y iPadOS, que se lanzarán a finales de este año, tendrán "nuevas aplicaciones de criptografía para ayudar a limitar la propagación de material de abuso sexual infantil en línea, teniendo en cuenta a la vez la privacidad de los usuarios".

El sistema funciona comparando fotos con una base de datos de imágenes de abuso sexual infantil compiladas por el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (US National Center for Missing and Exploited Children o NCMEC) y otras organizaciones de protección infantil.

Esas imágenes se traducen en códigos numéricos que pueden "coincidir" con el de una imagen en un dispositivo Apple.

La compañía agregó que el sistema también capturará versiones editadas pero similares de imágenes originales.

Antes de que una imagen sea almacenada en iCloud, el sistema buscará coincidencias entre las imágenes en el dispositivo y otras ya conocidas de abuso infantil. GETTY IMAGES

"Alto nivel de precisión"

"Antes de que una imagen se almacene en iCloud, se cotejará esa imagen con los códigos numéricos de fotos de abuso infantil conocidas", afirmó Apple.

La compañía señaló que el sistema tiene un "nivel extremadamente alto de precisión y garantiza menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada".

Apple dijo que revisará manualmente cada informe para confirmar que hay una coincidencia.

Y luego podría deshabilitar la cuenta de un usuario e informar a las autoridades.

Apple aseguró que la nueva tecnología ofrece beneficios de privacidad "significativos" sobre los sistemas existentes, ya que la empresa solo analizará las fotos de los usuarios si éstos tienen una colección de imágenes de abuso sexual infantil conocidas en su cuenta de iCloud.

Sin embargo, algunos expertos en privacidad han expresado su preocupación.

"Independientemente de los planes a largo plazo de Apple, han enviado una señal muy clara. En su opinión (muy influyente), está bien construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido", afirmó Matthew Green, experto en criptografía de Universidad Johns Hopkins.

"No importa si tienen razón o no en ese punto. Esto equivale a 'abrir las compuertas'; los gobiernos pedirán esta tecnología".

***

Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.

Síguenos en

Temas

Sigue navegando