Buscar

2021/09/07

Apple retrasa NeuralHash, su tecnología para identificar material de abuso sexual infantil

Apple anunció que posterga la ejecución de su tecnología NeuralHash que iba a aplicarse para identificar contenido de abuso sexual infantil CSAM (Child Sexual Abuse Material), iba a lanzarse durante setiembre con las actualizaciones sus sistemas operativos iOS 15, iPadOS 15, watchOS 8 y MacOS Monterey pero se ha postergado (quizás hasta finales de año)

La empresa afirmaba que el método elegido apenas interfería en la privacidad de los usuarios, los rastreos son anónimos y que se llevan a cabo comprobaciones para evitar falsos positivos, el código hash no es único para una imagen.

Todas las fotografías que se subieran a iCloud pasan a ser procesadas para generar un código hash que posteriormente sería contrastado con una base de datos de códigos de hash de material CSAM identificado con anterioridad y suministrada por el Centro Nacional para Niños Desaparecidos y Explotados NCMEC y otras entidades americanas de proteccion de menores.

A medida que se van identificando un alto grado de similitud entre los códigos hash se calcula la existencia de una cantidad de material en la cuenta (aproximadamente 30) y se emiten alertas para que personal humano verifique el material, corroborada las imágenes se suspende la cuenta del usuario y se efectúa la denuncia a las autoridades correspondientes.

Los ingenieros de Apple están revisando la tecnología e incorporando recomendaciones de expertos y grupos de defensa con el fin de refinar su herramienta.

Se han denunciado posibles riesgos como el uso de la tecnología como medio de vigilancia y censura por parte de gobiernos autoritarios contra jóvenes LGBTI o que estos sean víctimas de padres represivos.

El grupo Fight for Freedom que lucha por los derechos digitales califico la herramienta como una amenaza a la privacidad y a la libertad y que NeuralHash se convierte en sí en una puerta trasera. Entre las organizaciones que se han sumado a las críticas tenemos a la Union Americana de Libertades Civiles ACLU la Asociacion Canadiense de Libertades Civiles la australiana Digital Rights Watch la britanica Liberty y a Privacy International. Hay más de 5 000 que han firmado una carta de protesta.

Se contempló un segundo mecanismo en su programa de mensajería Messages, si un menor de edad (quien recibe una advertencia previa) recibe o envía una imagen con material sexual explícito podrían notificar a sus padres o tutores, siendo opcional esto último.


No hay comentarios: