IE 11 is not supported. For an optimal experience visit our site on another browser.

Meta lanza una herramienta para proteger a los usuarios de redes del porno vengativo

"Es un gran paso adelante para no quedar merced de los caprichos de un agresor”, dicen los responsables de la nueva funcionalidad de Facebook e Instagram.

Por Olivia Solon - NBC News

Meta, la empresa matriz de Facebook, lanzó este jueves una herramienta que ha desarrollado junto a la organización británica Revenge Porn Helpline para permitir a los usuarios que sus imágenes más íntimas no sean subidas a Facebook, Instagram o cualquier otra red social sin su consentimiento.

Este mecanismo está basado en un programa piloto que Facebook puso en marcha en Australia en 2017 y que facilita enviar archivos a un sitio global llamado StopNCII.org si el usuario está preocupado por que fotos o vídeos íntimos sean compartidos en Internet por una tercera persona. 

"Es un gran paso adelante", aseguró Sophie Mortimer, directora de Revenge Porn Helpline. "Para mí, la clave está en devolver este control sobre los contenidos a las personas directamente afectadas por este problema, para que no queden a merced de los caprichos de un agresor que amenace con compartirlos", apuntó

El logo de Meta, la empresa matriz de Facebook, en la sede de la compañía en Menlo Park, California.
El logo de Meta, la empresa matriz de Facebook, en la sede de la compañía en Menlo Park, California.Tony Avelar / AP

Karuna Nain, directora de política de seguridad global de Meta, explicó que la compañía ha cambiado su forma de abordar esta problemática y consideró que usar un sitio web independiente ayudará a que otras empresas usen este sistema y reduzcan la carga que sienten las víctimas de este tipo de abusos por tener que denunciar su situación a "todas y cada una de las plataformas".

Durante el proceso de envío, StopNCII.org requiere a las personas que confirmen que aparecen en una imagen. Éstas pueden seleccionar material en sus dispositivos, incluidas fotos manipuladas, que las muestren desnudas o casi desnudas.

Las imágenes o los vídeos se convierten entonces en huellas digitales únicas conocidas como hash, que se transmiten a otras empresas como Facebook e Instagram. 

StopNCII.org, que fue desarrollada junto a 50 socios mundiales especializados en el abuso de imágenes, la seguridad en línea y los derechos de las mujeres, no tendrá acceso ni almacenará copias de las imágenes originales. En su lugar, se convertirán en hash en los navegadores de los usuarios y StopNCII.org obtendrá únicamente las copias de este tipo de huellas. 

[Lo que Facebook sabía sobre cómo radicalizaba a sus usuarios]

Otras grandes plataformas han expresado su interés en unirse a la iniciativa, incluidas compañías de redes sociales, sitios para adultos y los tablones de anuncios, aseguró Mortimer, aunque todavía no están preparadas para anunciar su participación en el programa.

"Tener un sistema abierto a todas las partes de la industria es fundamental", subrayó. "Sabemos que este material no se comparte sólo en una plataforma y es necesario un enfoque mucho más conjunto", insistió.

Cada empresa participante utilizará una tecnología de comparación de hash para comprobar si se han subido a sus plataformas imágenes que coincidan con los hash originales.

Si detectaran coincidencias, los moderadores de contenidos de las plataformas revisarían las imágenes para asegurarse de que infringen sus políticas y de que la herramienta no ha sido utilizada de forma indebida por alguien que envía otro tipo de imagen no infractora. Si las plataformas determinaban que las imágenes o los vídeos infringen sus políticas, eliminarán todas las instancias y bloquearán los intentos de volver a subirlas.  

En el proyecto piloto de Facebook de 2017, las imágenes eran revisadas por moderadores humanos en el momento de su envío y convertidas en hash, lo que suscitó algunas críticas por motivos de privacidad.

Desde entonces, Facebook ha desarrollado más sistemas para combatir esta situación en la plataforma, informó NBC News en noviembre de 2019. Sin embargo, en ese momento, la jefa de seguridad de la compañía, Antigone Davis, dijo que era necesaria una mayor colaboración con otras empresas tecnológicas para evitar que las personas que pretenden compartir imágenes íntimas sin el consentimiento de los individuos que aparecen en ellas simplemente se trasladen a otra plataforma. 

"Es importante que Facebook y la industria reconozcan que no pueden estar al frente de esto", remarcó Mortimer.

[Facebook cambia de nombre: Meta será la nueva marca que acoja todos sus negocios]

"Un banco de hash es algo que debe celebrarse de forma independiente en un espacio neutral, y nosotros tenemos mucha confianza pública y un largo historial de ayuda a las personas afectadas por el intercambio de imágenes íntimas sin consentimiento", aseguró.

Mortimer dijo que aplaude el hecho de que Meta reconociera el problema y estuviera "dispuesta a poner la financiación y la experiencia" para crear la herramienta, y posteriormente "alejarse".

Las personas que envían material a la plataforma también pueden hacer un seguimiento de sus casos en tiempo real y retirar su participación en cualquier momento. 

"Pueden ver que sus hash se han subido y cuándo ha habido una coincidencia con una plataforma asociada", detalló Mortimer. "A veces los clientes pueden querer que se retiren las imágenes pero no quieren saber los números".

Meta y Revenge Porn Helpline reconocen que la gente puede abusar del sistema enviando imágenes no violentas sólo para que las retiren. Pero Mortimer dijo que el proceso de revisión por parte de moderadores de contenido humanos debería significar que las imágenes se restaurarían con relativa rapidez.

Nain, de Meta, también señaló que el sistema sólo puede detectar las coincidencias exactas de las imágenes, por lo que si la gente tiene "intenciones muy ofensivas", puede hacer pequeños cambios en las imágenes o los vídeos para evadir la detección, creando un frustrante juego de topo para los sujetos de las imágenes.

"Hay muchas cosas que tendremos que vigilar. ¿Cómo podemos hacer que el sistema se centre aún más en las víctimas? Nuestro trabajo no termina aquí", aclaró Nain. 

Aunque la herramienta cuenta con el apoyo de 50 socios en todo el mundo, en su lanzamiento sólo está disponible en inglés.