¿Sólo para luchar contra la pornografía infantil? Apple busca imágenes de sus clientes. https://t.me/QAnons_Espana

La empresa de TI Apple quiere filtrar el contenido de pornografía infantil de las fotos de los usuarios de iPhones y iPads y reportar material cuestionable a las autoridades. Apple destaca que la privacidad de los clientes sigue garantizada. Los críticos hablan de «vigilancia masiva dispersa».

Apple está luchando contra la propagación de la pornografía infantil y también quiere ayudar a encontrar niños desaparecidos en este contexto. Según la compañía, en el caso de que se descubra «Material de Abuso Sexual Infantil» (CSAM) al navegar por las imágenes en dispositivos Apple de usuarios privados, se pondrá a disposición del Centro para Niños Desaparecidos y Explotados (NCMEC) en los EE. UU. Se puede comparar con las imágenes almacenadas allí. Las imágenes no tienen que ser las mismas en su calidad de resolución.

Todo esto sucede sin el conocimiento del usuario antes de subir ilustraciones a iCloud. Con el fin de garantizar la seguridad de los datos, Apple ha decidido etiquetar primero una imagen que el sistema clasifica como pornografía infantil con un «Vale de Seguridad».

El descifrado incluyendo metadatos solo se lleva a cabo en Apple si el usuario excede un «valor límite» de contenido CSAM. El valor límite no está definido más, pero debe dar al cliente de Apple la seguridad de que no será identificado ligera e incorrectamente como un propagador de pornografía infantil. La cuenta Apple del usuario se suspende si se supera el umbral.

En un Libro Blanco, Apple escribe:

La detección de CSAM permite a Apple identificar e informar con precisión a los usuarios de iCloud qué material de abuso sexual infantil se almacena en sus cuentas de fotos de iCloud. Los servidores de Apple marcan cuentas que contienen un cierto número de imágenes que coinciden con una base de datos conocida de hashes de imágenes CSAM para que Apple pueda dar la información correspondiente al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Este proceso es seguro y ha sido desarrollado expresamente para proteger la privacidad de los usuarios».

El riesgo de identificar incorrectamente una cuenta es bajo. Además, los informes se comprobarían manualmente. Es ventajoso para los usuarios que no puedan determinar qué imágenes han sido marcadas como CSAM.

Para los usuarios menores de dispositivos Apple, la compañía ya está yendo un paso más allá y dice que quiere advertir a los padres cuando sus protegidos reciben o distribuyen imágenes sexualmente explícitas. El escaneo también incluye contenido de iMessage.

Los críticos no creen que la gran corporación se haya comprometido repentinamente con la lucha contra la pornografía infantil. El costoso y costoso escaneo CSAM para la empresa es el primer paso hacia el acceso a contenido cifrado, se hace la acusación.

Edward Snowden también dirigió el proyecto de la gran corporación para reaccionar. En Twitter, el conocido denunciante de la NSA compartió la cita de un experto en seguridad en este contexto:

Esta es una idea absolutamente terrible, porque conducirá a una vigilancia masiva dispersa de nuestros teléfonos y portátiles.

Fuente: https://de.rt.com/international/121947-nur-zum-kampf-gegen-kinderpornografie/

https://t.me/QAnons_Espana

Deja un comentario