Web Analytics
Conecta con nosotros

A Fondo

Europa aboga por perseguir el CSAM, a costa de la privacidad

Publicado el
Europa aboga por perseguir el CSAM, a costa de la privacidad

Se avecina un debate muy, muy tenso, en Europa y sus instituciones. Y es que la Comisión Europea ha presentado el borrador definitivo de una nueva regulación que, de ser aprobada, supondrá un importante giro en las acciones europeas en lo referido a la protección de la privacidad. ¿La razón? Fortalecer la lucha contra los contenidos de naturaleza sexual de abuso de menores (CSAM), un objetivo más que defendible, pero que aún así suscita múltiples interpretaciones, que evidentemente serán esgrimidas por ambas partes.

Y es que, según podemos leer en el borrador, de aprobarse lo que se plantea en el mismo, algo que todavía tiene que pasar por varias fases y revisiones que llevan tiempo, Europa podría empezar a exigir a las tecnológicas su participación activa en la persecución del CSAM. Esto, así planteado, no parece algo problemático, claro, pero cuando vemos qué es lo que la comisión se plantea pedir a las tecnológicas, vemos unas medidas que, en su despliegue, podrían acabar con el cifrado de punto a punto y el control absoluto de los usuarios sobre el contenido de sus dispositivos.

El proyecto pretende crear una nueva agencia, con una forma legal aún por determinar, de ámbito europeo, y cuya principal labor sería la de trabajar con las entidades como Europol y cuerpos policiales de los diversos países de Europa por una parte, y con las grandes tecnológicas que son las que tienen la posibilidad tanto de establecer sistemas para el análisis de los ficheros de sus usuarios, como de establecer algún tipo de puerta trasera en los sistemas de comunicaciones que permita el acceso plano a las mismas.

Esto no es una sorpresa, Europa lleva ya tiempo queriendo legislar en este sentido, es decir, en el establecimiento de los medios tecnológicos necesarios para eludir las protecciones de privacidad explotadas por los pederastas para el intercambio del tipo e material delictivo que esta norma pretende perseguir. Un tipo de contenido que, es sabido, con las proliferación de Internet entró en una edad de oro de la que todavía n ha salido.

Europa aboga por perseguir el CSAM, a costa de la privacidad

Si Europa aprueba finalmente lo que podemos leer en el borrador o una propuesta similar, la participación de las tecnológicas en este tipo de acciones dejará de ser voluntaria, que es el statu quo actual, y pasarán a verse obligadas por ley a proporcionar a las autoridades europeas facultadas para ellos, todos los activos que les sean requeridos. Y a diferencia de lo que ocurre en la actualidad, con la iniciativa en este sentido en manos de las tecnológicas, estas pasarán a depender de las autoridades, con independencia de que decidan, o no, mantener de manera adicional sus propias iniciativas al respecto.

Por hablar más claro, si existe sospecha de que algún ciudadano europeo crea, posee, intercambia y/o comercializa contenido CSAM, las tecnológicas estarán obligadas, en Europa, a proporcionar a las autoridades todo los activos digitales de la persona sospechosa, sus conversaciones de WhatsApp, los archivos que almacena en la nube, etcétera. Incluido, como indicaba antes, también aquellos activos que actualmente se protegen con cifrado de extremo a extremo.

Por supuesto, el borrador refleja un marco bastante garantista de los derechos de la ciudadanía, al tiempo que plantean el encaje legal de esta potencial nueva norma con las ya existentes en Europa, como la GDPR. No se trataría, según el texto legal, de una barra libre de acceso a activos digitales de los ciudadanos, siempre con el aval de los reguladores y con los sistemas de protección necesarios para evitar la explotación inadecuada de este acceso preferente.

Aún así, es innegable que el propio establecimiento de las medidas necesarias para que las autoridades puedan acceder a los contenidos de los ciudadanos en Europa acaba, de facto, con el nivel de privacidad que ofrecen, a día de hoy, los servicios con cifrado de extremo a extremo, que al menos en su definición teórica sí que proporcionan una privacidad absoluta, haciendo imposible que una tercera parte pueda acceder a los mismos salvo que cuente con las claves de descifrado necesarias.

Europa aboga por perseguir el CSAM, a costa de la privacidad

El simple establecimiento de este tipo de accesos, aunque sean tremendamente limitados, ya plantea un importante problema de seguridad, que podemos dar por seguro que se traducirá en muchos intentos de explotarlo. Desde ciberdelincuentes hasta gobiernos y empresas con servicios como el cada vez más polémico Pegasus, podemos apostar a que la implementación de puertas traseras, tal y como podría pedir Europa a las tecnológicas, iniciará una caza del zorro como nunca hemos visto hasta ahora.

Si recuerdas el caso del iPhone de San Bernardino, quizá recuerdes las declaraciones de Tim Cook, justo en un momento en el que Apple era férreamente presionada por el FBI para proporcionar algún sistema que permitiera eludir la protección del iPhone y/o el cifrado de sus contenidos:

«El debilitamiento de la seguridad con el objetivo de promover la seguridad, simplemente no tiene sentido y el debilitamiento del cifrado o la creación de puertas traseras en dispositivos permitirían vulnerabilidades que serán explotados por “los malos”, lo que causará graves daños a nuestra sociedad y nuestra economía.»

Y cito precisamente a Cook porque hace solo unos meses, Apple se vio inmersa en una importante polémica, precisamente por actuar en el sentido en el que pretende hacerlo ahora Europa. Fue en agosto del año pasado cuando los de Cupertino anunciaron Neural Hash, un sistema inteligente basado en IA que analizaría las imágenes y vídeos que suben los usuarios a iCloud, en busca de CSAM. La movilización en contra que generó dicho anuncio forzó a Apple a posponer, sin fecha, su puesta en funcionamiento.

Así, si una iniciativa privada como la de Apple ya encendió tantas alarmas, este borrador que ya ha iniciado su recorrido legal en Europa suscitará, sin ninguna duda, un debate particularmente virulento en el que se enfrentarán aquellos que abogan por la persecución de la pederastia con todos los medios posibles, frente a quienes consideran que este tipo de regulaciones plantean una inaceptable amenaza a la privacidad, y que incluso si su uso inicial es exclusivamente el indicado por la norma, cualquier modificación en este sentido a posteriori puede traducirse en accesos a los datos y activos digitales para otros fines.

Europa aboga por perseguir el CSAM, a costa de la privacidad

El problema es que ambas posturas tienen sentido, tanto la lucha contra la explotación sexual de menores como la defensa de la privacidad son causas con las que muchos nos alineamos de manera instintiva. Sin embargo, en casos como el de la regulación que Europa está estudiando, ambas entran en conflicto. Y aunque en primera instancia la protección de los menores tiene mucho más peso, si dedicamos un momento a pensar en las consecuencias de un uso ilegítimo de estas herramientas, vemos que nos podríamos llegar a enfrentar a la pérdida absoluta y definitiva de nuestra privacidad.

La Comisión Europea afirma que este borrador cuenta con el beneplácito de todas las partes involucradas en la persecución del CSAM, pero no hay referencias al otro lado, a entidades y expertos que velan por la privacidad. Seguramente en breve veremos comunicados en este sentido, y son voces que Europa debería sumar a la discusión y revisión de este borrador, antes de que se inicien las gestiones para su aprobación.

¿Qué opinas tú al respecto? ¿Crees que Europa hace bien priorizando la protección de los menores, aunque esto suponga un compromiso para la privacidad? ¿O, por el contrario, piensas que deberían buscarse otras fórmulas para perseguir a los pederastas y su material, pero que no debería ser a costa de sacrificar la privacidad?

Si me dieran una cana por cada contenido que he escrito relacionado con la tecnología... pues sí, tendría las canas que tengo. Por lo demás, música, fotografía, café, un eReader a reventar y una isla desierta. ¿Te vienes?

9 comentarios
  • Franci

    Esto es como las drogas. Pese a estar vetadas, hay venta, distribución y consumo. Ergo, no se cambia con la lucha directa, hay que buscar un cambio cultural. Admito que es un problema particularmente complicado de abordar…

  • Benito Camelas

    Bueno como las drogas… no es, aquí hay un parte implicada los menores que de llegar a «consentir» ni siquiera saben qué consienten o a qué se exponen, ni tienen la madurez emocional ni psicológica como para afrontar tales situaciones lo cual se vuelve en un abuso psicológico que va más allá de lo físico, los menores no se deberían ver expuestos a las enfermedades mentales de unos adultos que los explotan para intentar saciar su perturbación mental.

    En el caso de las drogas son adultos creándolas, distribuyéndolas y consumiéndolas, en principio una gente con la madured emocional y una experiencia vital como para saber discernir sobre lo que puede ser bueno en su vida y que no, como pasa con las «bebidas espirituosas» que son drogas fiscalizadas que cuando menos aportan ingresos a las arcas públicas, donde ahí si que hay que tener un cambio cultural para legalizar algunas blandas y cuando menos recaudar lo que actualmente se lleva el mercado negro, pero en el caso de los menores no pasaría por legalizar o desprotegerlos más, por lo que para mí no es como las drogas.

    No tengo ni idea de los pormenores de esta ley, pero recuerdo que allá por 2013 hubo una ley parecida pero para evitar el terrorismo que hizo que whatsapp, telegram y otras rebajaran su nivel de seguridad para permitir a las fuerzas del orden inflitrarse en grupos terroristas.

    No creo que nadie defienda el abuso infantil, pero como sabemos este puede ser un buen pretexto inegable para definir unas políticas que puedan ser usadas para otros fines, habrá que tener ojo con eso y espero que en Europa se debata bien y con expertos tanto jurídicos como técnicos en la materia, para poder espiar de esa manera las comunicaciones mínimo debe hacer falta la aprobación de un juez, que no hagan como cuando los derechos de autor que al final puentearon el paso judicial para poder cerrar webs a diestro y siniestro.

    La intención de la ley es buena y hay que hacer algo contra tanto abuso, quizás si van recolectando evidencias como muchas conexiones a determinadas ip o contacto con gente involucrada que luego un juez dictamine un periodo de observación del sospechoso para proceder la vulneración de su derecho a al privacidad por la sospecha de que está vulnerando los derechos de otras personas incumpliendo con su deber de respetar a los demás.

    Será un debate complejo, pero tengo confianza que en Europa lo hagan de una manera exaustiva y con lógica, aún que a veces ya comienza a parecer que toman decisiones opacas como los acuerdos con las farmacéuticas o el tratado de comercio TTIP o el acceso a medios como RT, que si bien pueden desinformar cuando menos como supuestos ciudadanos libres deberíamos poder tener acceso para poder formar nuestra opinión, mientras que no han cortado facebook y twitter que de ahí si que vienen las manipulaciones más efectivas.

    A ver como evoluciona la medida y qué proponen, si total al final ya tienen sus pegasus a nivel técnico para reventar las privacidades, pararles los pies a estas personas con un trastorno mental no suena tan mal, el problema está en como se gestiona la autorización para limitar los derechos de la gente y decidir a quién se le aplica y a quién no, por eso que ante todo pase por la aprobación de un juez, sin duda una buena herramienta es comprobar los hash, con una lista de hashes de archivos ya reconocidos como material de abuso infantil.

  • Maximiliano Daniel Georgieff

    La mayoría estamos a favor de la lucha contra el abuso infantil, el problema que no podemos comprometer la seguridad de todos por que así como van a tener acceso (los estados) a la privacidad de todos, también lo harán tarde o temprano los mal intencionados y lo peor que nunca podrán erradicar el abuso infantil y al final que costo se pagara esta vulneración de seguridad?

  • Virtualbox Vbox

    Es decir, lo que se hace en China pero que aquí «es por nuestro bien». ¿De verdad se creen que los delincuentes son tontos? A ellos les dará casi igual y sí habrán jodido la seguridad del ciudadano de a pie.

    ¿Alguna vez hará Europa algo bien?

  • Leonmafioso

    El que trafica lo hace a la luz pública de tal manera que nadie sabe que lo hace. O en caso de que lo sepan no hay ninguna evidencia que pruebe que lo hagan.

  • yattote

    Totalmente en desacuerdo de la propuesta, si sospechan que una persona es un abusador que pidan una orden judicial y entonces que le intervengan sus comunicaciones como se ha hecho toda la vida (hasta los espiados del ‘Catalangate’ tenian orden judicial para ser seguidos) pero eso de que nos den presunción de culpabilidad y que un gobierno (y no un juez) sea el que decida si somos espiados o no es lo más parecido a una tirania,. Yo es que siempre que me dicen ‘es por tu seguridad’ o ‘por tu bien’ una alerta salta porque siempre es a costa de tus libertades, que tranquilo que una vez los pierdes no los volverás a recuperar porque has pasado por el aro de cederlo en pro de ‘más’ supuesta seguridad

  • Julián

    Hay una enorme diferencia entre la pornografía y las drogas, las drogas son físicas en cambio la pornografía puede existir como archivos digitales. Aún existe venta y distribución de drogas porque hay políticos y policías corruptos que permiten su circulación, si no existiera la corrupción las drogas desaparecerían casi por completo (solo quedarían las de fácil producción por los adictos, como la marihuana). Con la pornografía al igual que la piratería, una vez que esta en la red ya es imposible de eliminar, la única opción es impedir que se produzca en un principio, pero educar a niños y padres para que sea mas difícil convertirse en presas de abusadores no da justificación para espiar a todo el mundo, por lo que nadie lo sugiere como alternativa.

  • Gregorio Ros

    El mismo cuchillo puede ser un arma o una útil herramienta en la cocina, pero es de lógica que no lo prohibimos por lo primero. La solución está en dedicar mas medios a perseguir a los pedofilos, no los van a eliminar totalmente, pero prohibiendo el cifrado no solo no van a evitar sus acciones, ya se buscaran ellos otro apaño, sino que van a joder la seguridad del resto de usuarios.

  • Gregorio Ros

    En este caso no creo que sea cuestión cultural, el pedófilo creo que nace con esa condición, imagino que también pueden convertirse las victimas en pedofilos por el trauma, pero creo que sera mas de lo primero. Siempre los tendremos, solo podemos ponerselo mas dificil, pero sin que la solución cree otro problema.

Lo más leído