Apple retrasa su plan de escanear los iPhone en busca de imágenes de abuso infantil: se tomará un tiempo para "hacer mejoras"

Apple retrasa su plan de escanear los iPhone en busca de imágenes de abuso infantil: se tomará un tiempo para "hacer mejoras"
4 comentarios Facebook Twitter Flipboard E-mail
antonio-cahun

Antonio Cahun

Editor Senior

Mi gusto por la tecnología comenzó cuando toqué por primera vez un NES a los 6 años. Metalhead y otaku, fan de One Piece. Comencé a escribir de tecnología como hobby, pero ahora es la manera en que me gano la vida. Puedes seguirme en X (Twitter) y en Instagram, donde todos los días publico historias de mi vida cotidiana. LinkedIn

Apple revela que retrasa su plan de escanear los iPhone y iCloud en busca de imágenes de abuso infantil. En su comunicado oficial explica que debido a la controversia causada por sus medidas, se tomará un tiempo para escuchar el feedback de los usuarios y mejorar su sistema.

El comunicado oficial de Apple dice lo siguiente:

El mes pasado anunciamos planes para prestaciones destinadas a ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación del material de abuso sexual infantil. Basándonos en el feedback de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar aportaciones y hacer mejoras antes de publicar estas prestaciones de seguridad infantil de importancia crítica.

Iphone 13 Conexion Satelital Llamadas Emergencia

El mes pasado Apple presentó el sistema de detección de Material de Abuso Sexual Infantil (CSAM por sus siglas en inglés), el cual analiza la biblioteca de imágenes cargadas a iCloud de los usuarios, aunque no directamente como imágenes sino usando un proceso llamado hash que convierte las imágenes a grupos de números con un patrón específico.

Una vez creado el patrón de cada imagen, el sistema lo compara con una base de datos de hashes provista por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Sin embargo, el proceso generó controversia por la posible vulneración de la privacidad de los usuarios. Además, críticos y expertos de seguridad también argumentaron sobre posibles futuras implicaciones del sistema para buscar y censurar contenido diferente al de la explotación infantil.

El lanzamiento de este plan y sistema de escaneo de imágenes estaba planeado para ocurrir junto con iOS 15. Sin embargo, ahora con este retraso es seguro que no se verán pronto, además de que Apple no menciona una posible nueva fecha de implementación.

Portada - Unsplash

Comentarios cerrados
Inicio