Conecta con nosotros

Noticias

Apple renuncia a NeuralHash, su polémico sistema anti CSAM

Publicado

el

Apple renuncia a NeuralHash, su polémico sistema anti CSAM

Hay pocos debates más complejos y posturas más irreconciliables que la confrontación de seguridad vs privacidad, y es algo que Apple ha experimentado muy en primera persona tras el anuncio de NeuralHash en agosto del año pasado, y que fue respondido con tal contundencia que, menos de un mes después, la compañía se vio obligada a posponer, al tiempo que afirmaba que mantendrían reuniones con expertos de todas las áreas implicadas en búsqueda de una solución eficaz, que proporcionara el ansiado equilibrio entre seguridad (en este caso de los menores) y privacidad.

Por si no lo recuerdas o no lo leíste en su momento, NeuralHash era una propuesta para detectar CSAM (Childs Sexual Abuse Material, contenido pederasta) revisando las imágenes subidas por los usuarios desde sus dispositivos a iCloud. ¿Y cómo iba a hacerlo? Pues su propio nombre ya nos pone sobre la pista: generando un hash por cada archivo y, a continuación, cruzándolo con una base de datos de hashes de imágenes identificadas como CSAM. Además, según explicaba Apple, el sistema sería capaz de detectar algunos cambios en las imágenes (y, claro, en sus correspondientes hashes) para evitar que una pequeña modificación permitiera pasar desapercibidas estas imágenes.

En caso de que se produjera alguna identificación positiva, el sistema bloquearía automáticamente esa cuenta de iCloud y, adicionalmente, informaría a las autoridades correspondientes para que tomaran las medidas adecuadas. Y para el poco probable caso de falsos positivos, que Apple minimizaba, afirmaba que los usuarios contarían con un sistema para poder reportar el error, lo que implicaría una revisión manual para confirmar si se trataba de un error o no.

Apple renuncia a NeuralHash, su polémico sistema anti CSAM

La respuesta en contra fue, como ya te contamos en su momento, más que contundente, y esto para una Apple que lleva ya muchos años haciendo bandera de la protección de la privacidad y la seguridad de sus usuarios, supuso un enorme varapalo, que hizo que pese a los anunciados planes para «darle una vuelta» a NeuralHash, en realidad el proyecto acabara guardado en el fondo de un cajón. Un cajón que podemos presuponer muy, muy profundo.

Así, no habíamos vuelto a tener noticias al respecto desde entonces y finalmente, según podemos leer en Wired, Apple ha decidido tirar la toalla con NeuralHash y lo ha cancelado. Esto es lo que afirma la compañía al respecto:

Después de una extensa consulta con expertos para recopilar comentarios sobre las iniciativas de protección infantil que propusimos el año pasado, estamos profundizando nuestra inversión en la función Seguridad de la comunicación que pusimos a disposición por primera vez en diciembre de 2021”, dijo la compañía a WIRED en un comunicado. “Hemos decidido además no seguir adelante con nuestra herramienta de detección de CSAM propuesta anteriormente para iCloud Photos. Los niños pueden estar protegidos sin que las empresas revisen los datos personales, y continuaremos trabajando con los gobiernos, los defensores de los niños y otras empresas para ayudar a proteger a los jóvenes, preservar su derecho a la privacidad y hacer de Internet un lugar más seguro para los niños y para todos nosotros.

Así pues, Apple centrará sus esfuerzos para combatir el CSAM en las herramientas proporcionadas a padres y tutores para que puedan supervisar adecuadamente los contenidos que reciben y emplean sus hijos, funciones que ya empezaron a desplegarse a finales del año pasado y que seguirán evolucionando.

No obstante, habrá que ver cómo encaja esto en los planes de la Unión Europea, que a mitades de este año empezó a plantear la posibilidad de establecer sistemas similares a NeuralHash, con la colaboración de las tecnológicas, para perseguir el CSAM en la red.

Si me dieran una cana por cada contenido que he escrito relacionado con la tecnología... pues sí, tendría las canas que tengo. Por lo demás, música, fotografía, café, un eReader a reventar y una isla desierta. ¿Te vienes?

Lo más leído