Apple comienza a escanear todas las fotos e imágenes personales cargadas a iCloud

¡Por favor comparta esta historia!
Apple ahora está asumiendo el papel de policía cuando comienza a escanear todas sus fotos cargadas en su servicio iCloud. La primera ola de extracción son fotos que representan la explotación infantil, ¡y te informarán a la policía! Sus algoritmos Technocrat AI no se harán públicos. Puede desactivar iCloud en sus dispositivos Apply, pero perderá la capacidad de sincronizarlos.

La excusa es atrapar a los abusadores de niños y depredadores sexuales, pero en el proceso también se debe escanear el 100 por ciento de sus fotos. Una vez que se abre la puerta de vigilancia, se puede apuntar cualquier otro tipo de foto para cualquier otro propósito. Esto podría incluir protestas políticas, información de rastreo de ubicación, perfiles psicológicos, es decir, de qué está tomando fotografías, etc. ⁃ TN Editor

Apple informará imágenes de explotación infantil subidas a iCloud en los EE. UU. a las fuerzas del orden, la empresa dijo el jueves.

El nuevo sistema detectará imágenes llamadas Material de abuso sexual infantil (CSAM) mediante un proceso llamado hash, donde las imágenes se transforman en números únicos que corresponden a esa imagen.

Apple comenzó a probar el sistema el jueves, pero la mayoría de los usuarios de iPhone de EE. UU. No serán parte de él hasta una actualización de iOS 15 a finales de este año, dijo Apple.

La medida pone a Apple en línea con otros servicios en la nube que ya escanean los archivos de los usuarios, a menudo utilizando sistemas de hash, en busca de contenido que viole sus términos de servicio, incluidas las imágenes de explotación infantil.

También representa una prueba para Apple, que dice que su sistema es más privado para los usuarios que los enfoques anteriores para eliminar imágenes ilegales de abuso sexual infantil, porque utiliza criptografía sofisticada tanto en los servidores de Apple como en los dispositivos de los usuarios y no escanea imágenes reales. solo hashes.

Pero muchos usuarios sensibles a la privacidad aún rechazan el software que notifica a los gobiernos sobre el contenido de un dispositivo o en la nube, y pueden reaccionar negativamente a este anuncio, especialmente porque Apple ha defendido a gritos el cifrado de dispositivos y opera en países con menos protecciones de voz que el nosotros

Los funcionarios encargados de hacer cumplir la ley de todo el mundo también han presionado a Apple para que debilite el cifrado de iMessage y otros servicios de software como iCloud para investigar la explotación infantil o el terrorismo. El anuncio del jueves es una forma de que Apple aborde algunos de esos problemas sin renunciar a algunos de sus principios de ingeniería en torno a la privacidad del usuario.

Cómo funciona

Antes de que una imagen se almacene en iCloud de Apple, Apple compara el hash de la imagen con una base de datos de hash proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Esa base de datos se distribuirá en el código de iOS comenzando con una actualización a iOS 15. El proceso de emparejamiento se realiza en el iPhone del usuario, no en la nube, dijo Apple.

Si Apple luego detecta una cierta cantidad de archivos infractores en una cuenta de iCloud, el sistema cargará un archivo que le permite a Apple descifrar y ver las imágenes en esa cuenta. Una persona revisará manualmente las imágenes para confirmar si coinciden o no.

Apple solo podrá revisar imágenes que coincidan con el contenido que ya se conoce y se informó a estas bases de datos; por ejemplo, no podrá detectar las fotos de los padres de sus hijos en el baño, ya que estas imágenes no serán parte de la base de datos del NCMEC.

Si la persona que realiza la revisión manual concluye que el sistema no cometió un error, Apple deshabilitará la cuenta de iCloud del usuario y enviará un informe al NCMEC o notificará a las autoridades policiales si es necesario. Los usuarios pueden presentar una apelación a Apple si creen que su cuenta fue marcada por error, dijo un representante de Apple.

El sistema solo funciona con imágenes cargadas en iCloud, que los usuarios pueden apagar, dijo Apple. Las fotos u otras imágenes de un dispositivo que no se hayan cargado en los servidores de Apple no formarán parte del sistema.

Lea la historia completa aquí ...

Sobre el autor

Patrick Wood
Patrick Wood es un experto líder y crítico en Desarrollo Sostenible, Economía Verde, Agenda 21, Agenda 2030 y Tecnocracia histórica. Es autor de Technocracy Rising: The Trojan Horse of Global Transformation (2015) y coautor de Trilaterals Over Washington, Volumes I and II (1978-1980) con el fallecido Antony C. Sutton.
Suscríbete
Notificar de
invitado
6 Comentarios
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
Jeremy Lamb

Bien. Ya es hora de que la gente se despierte a lo que ha estado sucediendo todo el tiempo. El único cambio ahora es que comenzarán a perseguir a las personas para establecer un precedente. Pero si crees que no saben lo que hay en tu iCloud o en tu teléfono, no eres muy inteligente. Ellos crearon la cosa. Y trabajé en telecomunicaciones, FYI. Podría subir al siguiente piso y ver la sala de servidores. En ese momento, el FBI aparentemente quería entrar allí ... porque los teléfonos eran de un tipo particular que supuestamente era muy útil para los traficantes y no de... Leer más »

Última edición hace 2 meses por Jeremy Lamb
Irene

La mejor respuesta es utilizar un almacenamiento en la nube de terceros que no esté interesado en sus asuntos privados. Están ahí fuera, pero tienes que buscarlos. Puede cifrar su contenido con ellos. Solo sepa que la empresa no puede recuperar todo el contenido cifrado si pierde su contraseña.

Jeremy Lamb

Para ser honesto, no tiene idea de quiénes son estas empresas. He descubierto, al investigar, que todas las empresas de "privacidad" tienen una financiación bastante dudosa. Y eso sin excepción.

[…] Leer más: Apple comienza a escanear todas las fotos e imágenes personales cargadas a iCloud […]

obispo penster

Mejor no tomes fotos de bebés o niños bañándose o duchándose… supongo que eres un pervertido si lo haces ahora.

[…] Apple comienza a escanear todas las fotos e imágenes personales cargadas a iCloud […]