Web Analytics
Conecta con nosotros

Noticias

NeuralHash: la solución de Apple para buscar pornografía infantil en iCloud

Publicado el
NeuralHash: la solución de Apple para buscar pornografía infantil en iCloud

Antes de hablar de NeuralHash, de cómo funciona y de las preocupaciones que ha suscitado, hay algo que quiero matizar, porque considero que es importante. Me refiero al título de esta noticia, un título que evidentemente he escogido yo mismo, pero que tiene un elemento que me desagrada bastante. Me refiero, claro, al concepto de «pornografía infantil», pero no a lo que significa y representa (que también, obviamente), si no al propio concepto.

Lo he empleado porque es el que empleamos la mayoría para referirnos a esa aberración, pero lo cierto es que existe, desde hace años, una corriente que presiona para eliminar ese término, sustituyéndolo por CSAM (Child Sexual Abuse Material). ¿Por qué? Porque a diferencia de la pornografía protagonizada por adultos, este tipo de contenido es siempre fruto del abuso, porque el hecho mismo de realizarlo ya es abusar. Así pues, a partir de ahora y para hablar de NeuralHash, emplearé el acrónimo CSAM, con vuestro permiso.

En las últimas horas han empezado a correr como la pólvora algunas noticias en las que se afirma que Apple va a escanear, con una tecnología denominada NeuralHash, las cuentas de iCloud de sus usuarios en busca y captura de contenido CSAM que, en caso de ser detectado, además de bloquearse será reportado a las autoridades, para que éstas tomen las medidas que correspondan. Esto es cierto, aunque con ciertos matices que son importantes, y es a la vez una noticia formidable y un poco preocupante.

Empecemos aclarando que no se trata de un rumor, es algo confirmado por la propia Apple, que ha publicado una página en la que habla de sus nuevas medidas de protección infantil, así como un completo y complejo informe técnico sobre el funcionamiento de NeuralHash. Y como podrás deducir por su nombre, si es que no lo imaginabas ya previamente, este sistema de detección se basa en los hash generados por archivos ya identificados previamente.

Si no sabes qué es un hash, en una versión resumida se trata del resultado de aplicar a un conjunto de datos un algoritmo matemático que, como resultado, devuelve una cadena de caracteres única y, esto es clave, con una longitud fija. Dicha cadena no es manipulable ni varía, dado que la función es fija, el mismo bloque de datos (y un archivo no es sino es, un bloque de datos) siempre devolverá el mismo hash, y una manipulación en el bloque de datos generará, siempre, un hash distinto.

NeuralHash: la solución de Apple para buscar pornografía infantil en iCloud

Así pues, lo que hará NeuralHash, que se incorporará a iOS 15 y a macOS Monterey, es chequear desde el cliente los contenidos que se suben a iCloud, obtener el hash de los contenidos del servicio y cruzarlos con una base de datos alimentada por un conjunto de entidades que trabajan en persecución del CSAM. Como ya hemos indicado antes, cada hash es prácticamente único (las posibilidades de que dos archivos distintos que como resultado un mismo hash es una gota de agua en el océano), de modo que si NeuralHash detecta una coincidencia, se activará un procedimiento para verificar el tipo de contenido y, si es necesario, castigar a su propietario.

La implementación de NeuralHash es un tanto más compleja pues, según Apple, podría ser capaz de detectar algunas modificaciones (recortes, ajustes de edición, etcétera) en las imágenes que darían lugar a distintos hashes. De esta manera no bastará con hacer un pequeño cambio para «blindar» el contenido, NeuralHash debería seguir siendo capaz de identificarlo.

¿Y qué ocurre si, por error, NeuralHash identifica como CSAM algún contenido que no lo es? Apple resta importancia a esta posibilidad, afirmando que es tremendamente improbable. Sin embargo, afirma que sí que ha establecido un sistema mediante el cual los usuarios podrán solicitar una revisión, en caso de que se haya producido un falso positivo. Además, todos las acciones iniciadas por NeuralHash serán verificadas manualmente, con el fin de proporcionar un marco garantista a los usuarios.

Es posible que estés pensando que el alcance de NeuralHash es limitado, al detectar solo aquellos contenidos que hayan sido identificados previamente con CSAM y estás en lo cierto. El problema es que la industria lleva años trabajando en la búsqueda de algoritmos que sean capaces de detectar determinados tipos de contenidos, pero es un desafío terriblemente complejo, en el que se han producido muchos intentos, desgraciadamente infructuosos.

Por ejemplo, cuenta la leyenda que hace ya bastantes años Google estaba trabajando para desarrollar un sistema capaz de identificar imágenes con contenido pornográfico para bloquearlas en determinados contextos. Para detectarlas identificaron los colores comunes de la piel y establecieron como señal que una gran parte de las imágenes estuviera formada por los mismos. ¿Consecuencia? Un montón de inocentes y adorables fotos de bebés fueron marcadas como contenido para adultos.

NeuralHash: la solución de Apple para buscar pornografía infantil en iCloud

Así, a falta de una IA perversa que sea capaz de identificar este tipo de contenido, solo nos queda la identificación manual  y la búsqueda de contenidos similares. Sistemas como NeuralHash son la única vía, en la actualidad, para que se pueda llevar a cabo un chequeo de contenidos de manera automática, es decir, sin que una persona revise manualmente nuestros contenidos, algo que sería mucho, muchísimo menos respetuoso con la privacidad.

Aún así, NeuralHash ha generado ciertas dudas entre la comunidad defensora de la privacidad, y esto tiene sentido, puesto que hablamos de un sistema capaz de analizar nuestros archivos privados. Salvo a los pederastas que consumen CSAM, dudo que a alguien le parezca mal esta implementación de la tecnología, pero lo que tampoco debemos perder de vista es que abre una puerta que sí que podría resultar un tanto preocupante.

¿Por qué? Veamos un ejemplo: NeuralHash se alimenta de una base de datos de los hashes de imágenes CSAM. Este sistema no busca un determinado tipo de contenido, no analiza las imágenes buscando determinados elementos, no, simplemente cruza datos. Y ahora supongamos que el gobierno totalitario de un país X, tiene una base de datos de imágenes relacionadas con la disidencia política. ¿Qué ocurrirá si ese país le cierra las puertas a Apple, salvo que emplee NeuralHash para identificar dichos contenidos y reportarlos a las autoridades?

Ya supimos en su momento que Apple respondió a las presiones del gobierno ruso presionando a su vez a Telegram para que bloqueara ciertos grupos en su app para iOS. Sin entrar en si esos grupo debían eliminarse o no, sí que supuso una demostración de que Apple puede ceder ante determinadas presiones, y ahora que es públicamente conocido que cuenta con una tecnología como esta, me preocupa pensar qué efectos puede tener en determinadas regiones.

No obstante, perseguir CSAM me parece imprescindible y, aún cons sus peros, el modelo seguido por Apple con NeuralHash me parece bastante equilibrado. Y es que en este tipo de problemas no hay una solución perfecta, desgraciadamente, por lo que la clave está en encontrar el equilibrio. Y en mi opinión, a falta de ver cómo funciona una vez implementado el sistema, creo que lo han conseguido. ¿Qué opinas tú?

Si me dieran una cana por cada contenido que he escrito relacionado con la tecnología... pues sí, tendría las canas que tengo. Por lo demás, música, fotografía, café, un eReader a reventar y una isla desierta. ¿Te vienes?

9 comentarios
  • Jose Pastrana

    La iniciativa esta muy bien sin embargo, ahi te das cuenta como lo que esta en la nube no te pertenece, los dueños de tus archivos son las empresas y aunque estes pagando o no por el servicio.

  • Gregorio Ros

    Hoy es la escusa de la pederastia, otras veces la del terrorismo, seguridad nacional (la preferida de algunas agencias),… una escusa como otra cualquiera para meter una puerta trasera, queda la duda de quien fue la idea, de la propia Apple o ajena. Me educaron con unos conceptos férreos de la privacidad: Correo ajeno, diarios personales, secreto de confesión,… sin una orden judicial y una razón de suficiente peso cualquier violación de esos conceptos es un delito en si mismo.

  • Lenin

    Me parece perfecto, los pedofilos que se queden con sus porquerias en telegram que ahi les dan tanta manga ancha a sus bajezas.

  • La solución es simple: encriptado de archivos (cifrado), que te espien todo lo que quieran.

  • Invitado

    ¿Telegram? ¿Qué sigue? ¿Qué Android es el sistema operativo móvil de los pedófilos?

  • Demetrio_Diaz

    Que tristeza. Tenemos que ceder privacidad para luchar contra la pornografía infantil.

    Si tan solo hubiera otra manera.

  • Gregorio Ros

    No, si no me equivoco la pornografía infantil solo es la escusa, esto es una puerta trasera metida con descaro. Que hay que luchar contra la pornografía infantil 100% de acuerdo, pero no con otro delito, no nos saltemos la legalidad ni la ética para ello. Tampoco dejemos que los sentimientos viscerales que nos da el tema nos nublen el sentido común, ¿Con otro tema/escusa menos sensible nos parecería bien?. Me resulta curioso que determinadas agencias gubernamentales, multinacionales también y da igual el país, cuando quieren «atajar» para lograr un objetivo solo tienen que meter un objetivo de estos de por medio y la mayoría de la gente traga. Te pongo el típico ejemplo que suele salir en las pelis y noticias de USA, ponen la coletilla de seguridad nacional y tienen vía libre, es tal el sentimiento patriótico que les nubla cualquier otra percepción. En el caso que nos trae la noticia los pederastas solo tendrán que cifrar los archivos, como comenta Ninnetyer, y se saltan la retricción, ¿Que nos queda entonces? Un acceso indiscriminado a nuestros datos por parte de Apple. Fijate que dije datos y no fotos, cuando abres la puerta vale para todo. ¿Quien nos garantiza que Apple se limitará a este tema, que no cederá a la presión de un gobierno para que les de la llave, que un empleado con ganas de forrarse de la propia Apple no venda la llave,…?.

  • Demetrio_Diaz

    La privacidad es un derecho humano y esa medida vulnera ese derecho.

    El problema no es que sea Apple, es que va sentar precedente. Posiblemente luego todos las plataformas implementen eso.

  • Alexrtw17

    Como sin en whatsapp o messenger no hicieran lo mismo

Lo más leído