Apple también había anunciado que denunciaría las imágenes con abuso sexual infantil a medida que se cargan en su almacenamiento en línea en Estados Unidos.

Sin embargo, las asociaciones de derechos digitales notaron rápidamente que los ajustes a los sistemas operativos de Apple crean una “puerta trasera” potencial en los dispositivos que podrían ser explotados por gobiernos u otras organizaciones.

Lee También

“Con base en comentarios de los clientes, grupos de defensa, investigadores y otros, decidimos tomarnos más tiempo en los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características tan importantes para la seguridad de los niños”, dijo la compañía en un comunicado.

La nueva tecnología permite al software que alimenta los dispositivos móviles de Apple comparar las fotos almacenadas en el teléfono de un usuario con una base de datos de imágenes de pornografía infantil proporcionadas por organizaciones de seguridad, y luego marcar las imágenes a medida que se cargan en el almacenamiento iCloud en línea de Apple, según la compañía.

El sistema, en caso de que entre en uso, sería “impulsado por una tecnología criptográfica” para determinar “si hay una coincidencia sin revelar el resultado”, a menos que se descubra que la imagen contiene abuso sexual infantil.