Apple anunció que a finales de este año pondrá en marcha en Estados Unidos un sistema de revisión automática de imágenes subidas desde Iphones o iPads en busca de contenidos relacionados a la pedofilia o material de abuso sexual infantil.

La compañía se suma a lo que ya venía haciendo Google, que también escanea las fotos y video que suben a su nube (Google Drive) para detectar este tipo de contenido.

"Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de pornografía infantil", indicó la compañía.

TAMBIÉN LEA: Youtube pagará hasta $us 10 mil dólares por videos virales para competir con TikTok

Aunque la decisión de Apple no cayó bien a los activistas de la privacidad digital, que han criticado la revisión de contenidos privado de los teléfonos.

Apple indicó que usará un método diseñado para no interferir con la privacidad. Primero, la foto tomada se subirá a la nube y cruzará automáticamente con una lista de contenidos ya identificados como pedófilos.

En caso de saltar una alarma, un empleado revisará los archivos para comprobar si son o no censurables. En caso que así sea, Apple suspende la cuenta y avisa a las autoridades.

 

Comentarios