Apple aclara ‘malentendidos’ sobre herramienta de detección de pornografía infantil

513

En un documento de seis páginas, llamado “Protecciones ampliadas para niños”, Apple respondió a las preocupaciones externadas en torno a sus próximas actualizaciones de software criptográfico para escanear los dispositivos de las personas, en busca de contenido de abuso sexual infantil.

Si bien varias organizaciones de protección infantil aplaudieron los planes de Apple para detectar la posesión de materiales de abuso sexual infantil (MASI) y cuidar a los niños de los depredadores sexuales, algunos expertos en seguridad y personalidades del sector tecnológico como Electronic Frontier Foundation, Edward Snowden, Tim Sweeney de Epic Games, y el director de WhatsApp, Will Cathcart, criticaron el enfoque de la marca de la manzana.

Las preocupaciones se centran principalmente en los posibles riesgos de que dicha tecnología pueda usarse como un tipo de ‘sistema de vigilancia’ o ‘puerta trasera’ que pueda ser explotada por gobiernos autoritarios o empresas de software espía con el fin de escanear teléfonos en busca de disidentes políticos y reprimir a los ciudadanos.

Apple promete rechazar solicitudes de gobiernos

En la guía de preguntas frecuentes, Apple aclaró que si un gobierno solicita usar su sistema de seguridad infantil para detectar imágenes que no sean MASI, “rechazará tales demandas”.

“Seamos claros: esta tecnología se limita a detectar MASI almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para ampliarla”, dijo Apple.

El gigante tecnológico afirma que el sistema de escaneo automatizado sólo afectará a los usuarios que usan la nube de Fotos de iCloud para almacenar sus imágenes, pero no afecta a los que no usan esta aplicación.

La compañía reiteró que la herramienta no le permite ver o escanear el álbum de fotos de un usuario si este no coincide con la base de datos de “hashes”, un tipo de huella digital o código de imágenes de abuso sexual infantil conocidas y recopiladas por el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos.

“Estos ‘hashes’ son cadenas de números que representan imágenes de material de abuso sexual infantil conocidas, pero no es posible leer o convertir esos ‘hashes’ en las imágenes del material de abuso sexual infantil en las que se basan”, explica Apple.

El simple hecho de poseer este tipo de imágenes es considerado un delito en la mayoría de los países, incluido Estados Unidos. Por ello, Apple dijo que revisará manualmente cada informe para confirmar si hay una coincidencia en caso de detectar imágenes ilegales. Luego podría deshabilitar la cuenta del usuario en cuestión e informar a las autoridades correspondientes.

El fabricante de iPhone asegura que “la probabilidad de que el sistema marque incorrectamente una cuenta determinada es menos de uno en un billón por año”.

La tecnología implementada en iMessage es diferente a la de iCloud

Otra de las funciones de seguridad que anunció Apple se enfoca en el análisis de la aplicación de mensajería iMessage, para detectar el envío o la recepción de contenido sexualmente explícito en cuentas designadas como propiedad de un menor de edad.

Apple dijo que esta herramienta no utiliza la misma tecnología que se emplea en iCloud. En el caso de iMessage, se usa la Inteligencia Artificial y Aprendizaje Automático para detectar imágenes en donde aparecen desnudos.

“Cuando la cuenta de un niño envía o recibe imágenes sexualmente explícitas, la foto se verá borrosa y el niño será advertido, se le presentarán recursos útiles y se le asegurará que está bien si no quiere ver o enviar la foto”, advierte Apple.

En caso de que el niño sea muy pequeño, como precaución adicional se agrega un control parental para notificar a los padres cuando estas imágenes se envían o reciben en el dispositivo del niño. Esta opción podrá ser activada o desactivada por los tutores del niño.

La manzana también garantizó que la privacidad y cifrado de los mensajes de iMessage no se verá comprometida, ni se compartirán con las agencias de policía.

Por el momento, los cambios de seguridad infantil de Apple estarán disponibles en la próxima actualización de las cuentas familiares de iCloud para iOS 15, iPadOS 15 y macOS Monterey. 

Estados Unidos será el primer país donde se lanzará la actualización, pero la compañía tecnológica dijo que expandirá las herramientas a otros países, dependiendo de las leyes locales.