Exigen que Apple desista de su plan de escanear iPhones para proteger a niños

Más de 90 organizaciones de la sociedad civil enviaron una carta al jefe de Apple, Tim Cook, expresando su preocupación por el potencial riesgo a la privacidad de la iniciativa.

417
Niño usando iPhone de Apple

Después de que Apple anunció sus planes de incorporar una nueva tecnología dentro de iOS para detectar posibles imágenes de abuso sexual infantil, la compañía se ha enfrentado a una serie de críticas y dudas acerca de cómo funcionan estas herramientas.

El jueves 19 de agosto, una coalición internacional liderada por el Centro para la Democracia y la Tecnología de Estados Unidos publicó una misiva dirigida a Tim Cook en donde le piden abandonar sus planes “para desarrollar capacidades de vigilancia en iPhones, iPads y otros productos de Apple”.

La carta fue enviada con la firma de organizaciones de derechos civiles, derechos humanos y digitales de todo el mundo como la Electronic Frontier Foundation y The Tor Project de EE.UU., Fundación Éticas de España, Fundación Karisma de Colombia, R3D: Red en Defensa de los Derechos Digitales de México, la Asociación por los Derechos Civiles de Argentina, y varios grupos en Brasil, entre otros.

Los planes de Apple abren la puerta al espionaje masivo

Apple protección infantil

Las organizaciones argumentan que la principal preocupación es el escaneo de material de abuso sexual infantil (CSAM, por sus siglas en ingles) que puedan estar almacenadas en iCloud.

Apple ha explicado anteriormente que el escaneo es seguro y que sólo recibe datos criptográficos de la imagen cargada que coincida con la base de datos del Centro Nacional para Niños Desaparecidos y Explotados en Estados Unidos y otras organizaciones de seguridad infantil.

Sin embargo, a las organizaciones les preocupa que esta tecnología se pueda usar para censurar el discurso en línea y amenazar la privacidad de los usuarios.

Asimismo, afirman que una vez que el cambio se incorpore funcionará como una ‘puerta trasera’ para que los gobiernos autoritarios exijan a la empresa de la manzana detectar otro tipo de imágenes que consideren ‘objetables’.

Por ejemplo, “abusos a los derechos humanos, protestas políticas, imágenes etiquetadas como ‘terroristas’ o de violencia extremista, o incluso imágenes poco halagadoras de los mismos políticos”, indican.

Además, aseguran que existe el riesgo de que no sólo las imágenes que se cargan a la nube sean escaneadas, sino que la vigilancia se pueda extender a las fotos almacenadas en el dispositivo.

Existe un mayor riesgo para los niños y jóvenes LGBTQ+

Niños LGBTQ

Los grupos de derechos civiles también señalaron el peligro que representa el escaneo y alertas de desnudez, que rompe el cifrado de extremo a extremo en iMessage, para muchos niños y jóvenes LGBTQ+ que tienen a un padre o tutor abusivo o poco comprensivo.

Para cerrar la carta, la coalición exige a Apple ratificar su compromiso con la privacidad de sus usuarios y que consulte con más frecuencia a las comunidades vulnerables que se puedan ver afectadas por los cambios en sus productos y servicios.