WhatsApp critica a Apple por su nuevo sistema de análisis de fotos en la nube: es "preocupante para la privacidad" dice el CEO

WhatsApp critica a Apple por su nuevo sistema de análisis de fotos en la nube: es "preocupante para la privacidad" dice el CEO
3 comentarios Facebook Twitter Flipboard E-mail
antonio-cahun

Antonio Cahun

Editor Senior

Mi gusto por la tecnología comenzó cuando toqué por primera vez un NES a los 6 años. Metalhead y otaku, fan de One Piece. Comencé a escribir de tecnología como hobby, pero ahora es la manera en que me gano la vida. Puedes seguirme en X (Twitter) y en Instagram, donde todos los días publico historias de mi vida cotidiana. LinkedIn

Will Cathcart, CEO de WhatsApp, se ha pronunciado al respecto del nuevo sistema de Apple para el escaneo de fotos en la nube: dice que es "una adversidad para la privacidad de las personas en todo el mundo".

Apple reveló su nuevo sistema de escaneo de fotos en la nube que será utilizado con el único propósito, según la compañía, de reportar a las autoridades posible material de abuso infantil. Sin embargo, Catcart, dirigente de la plataforma de mensajería instantánea más grande del mundo, ha explicado en un hilo de Twitter que es el "enfoque equivocado" y además asegura que WhatsApp no adoptará ese sistema, en respuesta a las preguntas de los usuarios de WhatsApp.

"Es el enfoque equivocado", dice WhatsApp

Cathcart sustenta sus declaraciones demostrando los resultados de WhatsApp en su lucha contra el abuso infantil. Según cifras de WhatsApp, en 2020 se reportaron más de 400,000 casos de compartición de material de abuso infantil, y todos, asegura Cathcart, sin necesidad de romper la encriptación de los mensajes de la plataforma.

Whatsapp Ios Iphone Privacidad

Según Cathcart, las intenciones de Apple son las correctas en su lucha de hacer más por combatir el material de abuso infantil, pero en vez de enfocarse en hacer más fácil el reporte de este contenido, introducen al mundo algo preocupante: un software que puede escanear todas las fotos privadas en un smartphone, incluso fotos que no se han compartido con nadie. El CEO de WhatsApp señala enérgicamente que eso no es privacidad.

Este nuevo software es, según Cathcart, "un sistema de vigilancia desarrollado y operado por Apple que podría usarse fácilmente para escanear contenido privado en busca de cualquier cosa que ellos o un gobierno decidan que quieren controlar". Además, apunta el hecho de que cada país en donde se vendan iPhone y sus demás productos tendrá diferente opinión sobre si el sistema es aceptable, o no.

En este último aspecto de los países, Cathcart abre la puerta a las solicitudes de los diferentes gobiernos y cómo Apple las manejará, además de que también deja la duda sobre si el sistema de escaneo es a prueba de errores, mencionando cómo manejará Apple la situación cuando las compañías de spyware encuentren vulnerabilidades en el sistema.

En resumen Cathcart menciona que hay muchos problemas con el acercamiento de Apple y su sistema para combatir el material de abuso infantil. El CEO de WhatsApp finaliza su hilo rememorando aquella legendaria carta de 2016 de Apple a sus consumidores, en donde menciona que sería incorrecto construir puertas traseras en sus productos por petición del gobierno. Cathcart menciona que esas fueron palabras sabias en ese entonces, y que valdría la pena escucharlas ahora.

Cathcart es un defensor de la privacidad de los usuarios en WhatsApp e incluso en una ocasión anterior se pronunció en contra de la encriptación homomórfica, una nueva tecnología que permitiría analizar información sin necesidad de desencriptarla y en la que grandes empresas como Google, Microsoft y Facebook estaría interesada, según The Information.

Apple Reportar Fotos Abuso Infantil Icloud Analisis Fotos Nube Iphone Ipad Imac

Apple explicó que su sistema no escanea las fotos como tal sino que antes se hace la conversión a hashes, un conjunto de número con un patrón único para cada foto, y que esto se comparan con una base de datos de hashes provista por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). También aseguró que no puede añadir nuevos patrones de hash de otro tipo de imágenes, lo cual imposibilita su uso para otros fines diferentes a la protección de menores, y, en teoría, deshabilita las declaraciones de Cathcart.

Como sea, el sistema de detección de Material de Abuso Sexual Infantil de Apple aún está en pruebas y se estima su despliegue a todos los usuarios de iPhone, iPad y mac más adelante en el año, si todo sale bien con las autoridades y no hay contratiempos en su implementación.

Imágenes - Unsplash (1, 2)

Comentarios cerrados
Inicio