Conecta con nosotros

Noticias

NeuralHash: la solución de Apple para buscar pornografía infantil en iCloud

Publicado

el

NeuralHash: la solución de Apple para buscar pornografía infantil en iCloud

Antes de hablar de NeuralHash, de cómo funciona y de las preocupaciones que ha suscitado, hay algo que quiero matizar, porque considero que es importante. Me refiero al título de esta noticia, un título que evidentemente he escogido yo mismo, pero que tiene un elemento que me desagrada bastante. Me refiero, claro, al concepto de «pornografía infantil», pero no a lo que significa y representa (que también, obviamente), si no al propio concepto.

Lo he empleado porque es el que empleamos la mayoría para referirnos a esa aberración, pero lo cierto es que existe, desde hace años, una corriente que presiona para eliminar ese término, sustituyéndolo por CSAM (Child Sexual Abuse Material). ¿Por qué? Porque a diferencia de la pornografía protagonizada por adultos, este tipo de contenido es siempre fruto del abuso, porque el hecho mismo de realizarlo ya es abusar. Así pues, a partir de ahora y para hablar de NeuralHash, emplearé el acrónimo CSAM, con vuestro permiso.

En las últimas horas han empezado a correr como la pólvora algunas noticias en las que se afirma que Apple va a escanear, con una tecnología denominada NeuralHash, las cuentas de iCloud de sus usuarios en busca y captura de contenido CSAM que, en caso de ser detectado, además de bloquearse será reportado a las autoridades, para que éstas tomen las medidas que correspondan. Esto es cierto, aunque con ciertos matices que son importantes, y es a la vez una noticia formidable y un poco preocupante.

Empecemos aclarando que no se trata de un rumor, es algo confirmado por la propia Apple, que ha publicado una página en la que habla de sus nuevas medidas de protección infantil, así como un completo y complejo informe técnico sobre el funcionamiento de NeuralHash. Y como podrás deducir por su nombre, si es que no lo imaginabas ya previamente, este sistema de detección se basa en los hash generados por archivos ya identificados previamente.

Si no sabes qué es un hash, en una versión resumida se trata del resultado de aplicar a un conjunto de datos un algoritmo matemático que, como resultado, devuelve una cadena de caracteres única y, esto es clave, con una longitud fija. Dicha cadena no es manipulable ni varía, dado que la función es fija, el mismo bloque de datos (y un archivo no es sino es, un bloque de datos) siempre devolverá el mismo hash, y una manipulación en el bloque de datos generará, siempre, un hash distinto.

NeuralHash: la solución de Apple para buscar pornografía infantil en iCloud

Así pues, lo que hará NeuralHash, que se incorporará a iOS 15 y a macOS Monterey, es chequear desde el cliente los contenidos que se suben a iCloud, obtener el hash de los contenidos del servicio y cruzarlos con una base de datos alimentada por un conjunto de entidades que trabajan en persecución del CSAM. Como ya hemos indicado antes, cada hash es prácticamente único (las posibilidades de que dos archivos distintos que como resultado un mismo hash es una gota de agua en el océano), de modo que si NeuralHash detecta una coincidencia, se activará un procedimiento para verificar el tipo de contenido y, si es necesario, castigar a su propietario.

La implementación de NeuralHash es un tanto más compleja pues, según Apple, podría ser capaz de detectar algunas modificaciones (recortes, ajustes de edición, etcétera) en las imágenes que darían lugar a distintos hashes. De esta manera no bastará con hacer un pequeño cambio para «blindar» el contenido, NeuralHash debería seguir siendo capaz de identificarlo.

¿Y qué ocurre si, por error, NeuralHash identifica como CSAM algún contenido que no lo es? Apple resta importancia a esta posibilidad, afirmando que es tremendamente improbable. Sin embargo, afirma que sí que ha establecido un sistema mediante el cual los usuarios podrán solicitar una revisión, en caso de que se haya producido un falso positivo. Además, todos las acciones iniciadas por NeuralHash serán verificadas manualmente, con el fin de proporcionar un marco garantista a los usuarios.

Es posible que estés pensando que el alcance de NeuralHash es limitado, al detectar solo aquellos contenidos que hayan sido identificados previamente con CSAM y estás en lo cierto. El problema es que la industria lleva años trabajando en la búsqueda de algoritmos que sean capaces de detectar determinados tipos de contenidos, pero es un desafío terriblemente complejo, en el que se han producido muchos intentos, desgraciadamente infructuosos.

Por ejemplo, cuenta la leyenda que hace ya bastantes años Google estaba trabajando para desarrollar un sistema capaz de identificar imágenes con contenido pornográfico para bloquearlas en determinados contextos. Para detectarlas identificaron los colores comunes de la piel y establecieron como señal que una gran parte de las imágenes estuviera formada por los mismos. ¿Consecuencia? Un montón de inocentes y adorables fotos de bebés fueron marcadas como contenido para adultos.

NeuralHash: la solución de Apple para buscar pornografía infantil en iCloud

Así, a falta de una IA perversa que sea capaz de identificar este tipo de contenido, solo nos queda la identificación manual  y la búsqueda de contenidos similares. Sistemas como NeuralHash son la única vía, en la actualidad, para que se pueda llevar a cabo un chequeo de contenidos de manera automática, es decir, sin que una persona revise manualmente nuestros contenidos, algo que sería mucho, muchísimo menos respetuoso con la privacidad.

Aún así, NeuralHash ha generado ciertas dudas entre la comunidad defensora de la privacidad, y esto tiene sentido, puesto que hablamos de un sistema capaz de analizar nuestros archivos privados. Salvo a los pederastas que consumen CSAM, dudo que a alguien le parezca mal esta implementación de la tecnología, pero lo que tampoco debemos perder de vista es que abre una puerta que sí que podría resultar un tanto preocupante.

¿Por qué? Veamos un ejemplo: NeuralHash se alimenta de una base de datos de los hashes de imágenes CSAM. Este sistema no busca un determinado tipo de contenido, no analiza las imágenes buscando determinados elementos, no, simplemente cruza datos. Y ahora supongamos que el gobierno totalitario de un país X, tiene una base de datos de imágenes relacionadas con la disidencia política. ¿Qué ocurrirá si ese país le cierra las puertas a Apple, salvo que emplee NeuralHash para identificar dichos contenidos y reportarlos a las autoridades?

Ya supimos en su momento que Apple respondió a las presiones del gobierno ruso presionando a su vez a Telegram para que bloqueara ciertos grupos en su app para iOS. Sin entrar en si esos grupo debían eliminarse o no, sí que supuso una demostración de que Apple puede ceder ante determinadas presiones, y ahora que es públicamente conocido que cuenta con una tecnología como esta, me preocupa pensar qué efectos puede tener en determinadas regiones.

No obstante, perseguir CSAM me parece imprescindible y, aún cons sus peros, el modelo seguido por Apple con NeuralHash me parece bastante equilibrado. Y es que en este tipo de problemas no hay una solución perfecta, desgraciadamente, por lo que la clave está en encontrar el equilibrio. Y en mi opinión, a falta de ver cómo funciona una vez implementado el sistema, creo que lo han conseguido. ¿Qué opinas tú?

Si me dieran una cana por cada contenido que he escrito relacionado con la tecnología... pues sí, tendría las canas que tengo. Por lo demás, música, fotografía, café, un eReader a reventar y una isla desierta. ¿Te vienes?

Lo más leído