Revuelo causa la nueva solución de Apple para combatir imágenes de abuso infantil

La intención de Apple es indudablemente legítima, e incluso necesaria, pero expertos cuestionan el potencial de abuso por parte de los gobiernos.

Apple anunció la semana pasada que introducirá una función para detectar imágenes de abuso sexual infantil subidas a iCloud Photos desde dispositivos iPhone en Estados Unidos. La compañía indica que la función busca combatir la circulación de imágenes de abuso sexual de niños que se comparten en línea.

Sin embargo, investigadores de seguridad y defensores de la privacidad afirman que la función podría habilitar una nueva forma de abuso gubernamental, planteando a la vez un cambio radical al debate sobre las tecnologías de cifrado.

La mayoría de los principales servicios en la nube, como Dropbox, Google y Microsoft, ya escanean en busca de material de explotación sexual infantil. Lo que distingue al nuevo sistema de Apple es que la búsqueda comienza en el teléfono del usuario, no en el servidor cloud.

Apple analiza las fotos de un dispositivo utilizando una tecnología de hash llamada NeuralHash, que asigna a cada foto un número único específico. A continuación, compara esos números con los hashtags que la empresa ha creado a partir de una base de datos de material conocido de abuso sexual infantil (CSAM) proporcionada por el National Center for Missing & Exploited Children (NCMEC) y otras organizaciones de protección de la infancia.

Si las fotos parecen casi idénticas, generarán el mismo número de hash, quedando así la imagen etiquetada cuando se sube a iCloud. Una vez que una cuenta recibe un determinado número de concordancias, se somete a revisión manual por parte de Apple. A continuación, la empresa las envía al NCMEC, que decidirá si reportar la situación a la policía. 

En una llamada con periodistas, referida por diversos medios estadounidenses, Apple negó que el sistema de comparación equivalga a un escaneo general de contenidos. La tecnología está diseñada para evitar que Apple conozca cada una de las fotos del teléfono, explicó un portavoz de la empresa. Según Apple, hay una probabilidad “extremadamente baja”, una entre un trillón, de marcar incorrectamente una cuenta.

“Creo que el sistema de Apple aborda de forma muy eficaz las propiedades técnicas de privacidad”, afirma Jonathan Mayer, profesor adjunto de informática y asuntos públicos de la Universidad de Princeton. Mayer es coautor de un artículo que se publicará próximamente sobre la viabilidad técnica de preservar la privacidad utilizando la concordancia de hash para los servicios de cifrado de extremo a extremo.

El principal cuestionamiento de Mayer es que la tecnología se utilice de forma abusiva para la vigilancia gubernamental. 

La industria tecnológica recuerda cuando Apple se convirtió en un paladín de la privacidad con su negativa ante las peticiones del gobierno estadounidense en 2015 y 2016 de desbloquear el teléfono de un terrorista en San Bernardino que asesinó a 14 personas. Aun en este caso de extrema violencia y el legítimo interés de las autoridades por analizar el teléfono del asesino, la compañía dijo que no había manera de violar el cifrado del teléfono sin desarrollar un software que pudiera utilizarse para violar la privacidad de otros clientes.

Riana Pfefferkorn, investigadora del Observatorio de Internet de Stanford, comentó en su blog: “El escaneo directo de dispositivos no es sólo una cuestión de privacidad o de seguridad de los datos; es una cuestión de libertad de expresión. Una vez que se abre la puerta al escaneo del lado del cliente, no hay forma de que se detenga con las imágenes de abuso de menores”.

A juicio de la experta, “la decisión de Apple no desviará la presión gubernamental; sólo atraerá más, y no sólo de estados autoritarios como China, un mercado enorme donde Apple anteriormente ha transado con lo que, según dice, son sus valores”.

En la conversación con los periodistas se planteó la posibilidad de que los gobiernos utilicen software espía para plantar imágenes de abuso en los teléfonos de ciudadanos para así justificar una investigación por parte de las fuerzas del orden.

Apple rebatió que el nuevo sistema pueda ser visto por los regímenes autoritarios como una nueva forma potencial de vigilancia.

La medida de Apple es interpretada como una respuesta  a la creciente presión ejercida por los gobiernos y los grupos de defensa de la infancia para que las plataformas tecnológicas aborden con mayor eficacia el material de abuso sexual infantil. Hasta ahora, Apple ha destacado por su pasividad sobre la materia. En 2020, Facebook reportó 20.307.216 imágenes de abuso sexual infantil y Google 546.704 en todas sus plataformas, según el NCMEC. Apple sólo denunció 265.


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022