Apple escaneará iPhone de forma remota en busca de imágenes de abuso sexual infantil

  • James Clayton
  • Corresponsal de tecnología de la BBC en América del Norte

crédito, imágenes falsas

Imagen ilustrativa,

Apple dice que la tecnología podrá detectar copias alteradas pero idénticas de las imágenes originales de abuso sexual infantil.

Apple ha anunciado que establecerá un sistema para localizar material de abuso sexual infantil (CSAM) en los dispositivos de los clientes en los Estados Unidos.

Antes de que la foto se almacene en iCloud, la tecnología buscará coincidencias con material conocido de abuso sexual infantil.

De esta manera, si se encuentra una coincidencia, un revisor humano evaluará el caso e informará al usuario a las autoridades.

Sin embargo, esto ha generado preocupaciones sobre la privacidad: la tecnología para rastrear teléfonos podría ampliarse para contenido prohibido o incluso para discursos políticos. Los expertos temen que los gobiernos autoritarios puedan utilizar esta tecnología para espiar a sus ciudadanos.

Apple dijo que las nuevas versiones de iOS y iPadOS, que se lanzarán a finales de este año, contendrán «nuevas aplicaciones de encriptación para ayudar a reducir la propagación de material de abuso de menores en línea, mientras están diseñadas para la privacidad del usuario infantil».

El sistema funciona comparando las imágenes con una base de datos de imágenes de abuso sexual infantil conocidas compiladas por el Centro Nacional para Niños Desaparecidos y Explotados de EE. UU. Y otras organizaciones de seguridad infantil.

Estas imágenes se traducen en «hashes», que son códigos digitales que se pueden «combinar» con una imagen en su dispositivo Apple.

crédito, PA de medios

Imagen ilustrativa,

El nuevo sistema funciona comparando las imágenes con una base de datos conocida de imágenes de abuso sexual infantil.

«Alto nivel de precisión»

«Antes de que una foto se almacene en iCloud Photos, se realiza un proceso de comparación en el dispositivo para esa foto con material conocido de abuso sexual infantil», dijo Apple.

La compañía dijo que el sistema tiene «un nivel muy alto de precisión y garantiza menos de un billón de probabilidades por año de que se marque una bandera incorrecta en una cuenta en particular».

Además, Apple dice que revisará cada informe manualmente para asegurarse de que coincida. Luego, puede tomar medidas para desactivar la cuenta del usuario e informar a las autoridades.

La compañía dice que la nueva tecnología ofrece ventajas de privacidad «significativas» sobre las tecnologías existentes: Apple solo conoce las fotos de los usuarios si tienen un conjunto conocido de material de abuso de menores en su cuenta de iCloud.

Algunos expertos en privacidad han expresado su preocupación.

«Independientemente de los planes a largo plazo de Apple, enviaron una señal muy clara. En su opinión (muy influyente), es seguro construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido», dijo Matthew Green, investigador de la Universidad Johns Hopkins. . en los Estados Unidos de América.

«No importa si tienen razón o no en este punto. Él romperá la barrera, los gobiernos se lo exigirán a todos».

Has visto nuestros nuevos videos en YouTube? ¡Suscríbase a nuestro canal!

Lucía Veloz

"Orgullosa especialista en redes sociales. Comunicador. Gamer. Twitteraholic. Genio de la música amigable con los hipsters".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top